Hannes Kaufmann im Interview
Hannes Kaufmann ist Professor am Forschungsbereich Virtual and Augmented Reality, öffnet eine externe URL in einem neuen Fenster an der Fakultät für Informatik der TU Wien, öffnet eine externe URL in einem neuen Fenster. Er beschäftigt sich seit 20 Jahren mit den Möglichkeiten virtueller Realität und ist exzellenter Kenner der neuesten Entwicklungen in diesem Bereich. Wir haben mit ihm über den derzeitigen Entwicklungsstand von VR und AR-Anwendungen, ethische Fragen und Tabus sowie die gesellschaftliche Verantwortung gesprochen.
Herr Professor Kaufmann, was kommt auf uns zu, wenn wir uns in die virtuelle Welt begeben. Können Sie einen Überblick über den Stand der Entwicklungen im Bereich Virtual/Augmented Reality geben?
Hannes Kaufmann: Gerne. Vorweg: Wir erfassen die Welt, auch die virtuelle, mit unseren Sinnen. Der Schlüsselsinn dafür ist der Sehsinn. Er ist der dominanteste Sinn, weil er auch alle anderen Sinne beeinflussen kann, wie ich gleich erklären werde. Derzeit verwenden wir dafür Brillen, d.h. wir sehen zusätzlich zur Realität virtuelle Inhalte, die mithilfe einer Brille eingeblendet werden.
Ganz aktuell wird als Weiterentwicklung der Brille bereits an Kontaktlinsen geforscht: Dabei werden die dreidimensionalen Inhalte direkt am Auge eingespielt. Die Entwicklung dafür befindet sich in einem frühen Stadium, denn die Elektronik der Linse nahe am Auge macht Probleme, weil bei jeder Art von Schaltkreis Wärme entsteht. Diese Wärme direkt am Auge ist medizinisch nicht unbedenklich.
Beim Gehör, also dem auditiven Sinn kommen neben Kopfhörern und Lautsprecheranlagen fortgeschrittene Techniken wie etwa Knochenschallgeräte zum Einsatz. Das sind hinter dem Ohr anliegende Lautsprecher, die Schall über Knochen in den Gehörgang übermitteln. Dadurch können vor allem in Trainingsszenarien die Trainierenden die Umwelt hören und gleichzeitig Geräusche aus der virtuellen Welt wahrnehmen.
Und dann spielen auch der Geruchs-, Geschmacks- und der Tastsinn, die Haptik eine Rolle: Für den Tastsinn sind bereits einige Entwicklungen am Markt, bei denen unsere Fingerspitzen angesprochen werden: Beim Force Feedback werden Stifte dafür eingesetzt Kraft rückzukoppeln: Wenn ich zum Beispiel virtuell auf eine virtuelle Kugel oder Ebene treffe, dann kann ich den Stift nur auf dieser Ebene bewegen, meine Hände werden dorthin zurückgedrückt. Im besten Fall entsteht der Eindruck des Streichens mit einem Stift über eine Kugeloberfläche.
Diese Dinge spürt man nur an den Fingern, aber der Tastsinn ist deutlich komplexer: Der Großteil unserer Empfindungssensoren befindet sich ja auf den Handflächen. Es gibt sogar Landkarten zur Verteilung der Nervenzellen auf unserem Körper, die Tastsinn empfinden. Der Großteil davon befindet sich an den Händen und im Gesicht.
Es wird viel dazu geforscht, wie man den Rest der Hand ansprechen kann. Wir forschen gerade in einem Projekt dazu, bei dem wir einen mobilen Roboter auf einer fahrbaren Plattform verwenden, der sich wie ein persönlicher Assistent immer mitbewegt, wenn ich in der virtuellen Welt etwas angreifen möchte. Wenn ich zum Beispiel eine Wand angreifen möchte, dann hält mir der Roboterarm ein Stück Wand entgegen. Wenn ich virtuell zu dieser Wand gehe, spüre ich diese virtuelle Wand. Wenn ich meine Hand weiterbewege, bewegt der Roboter das Stück Wand mit. Das vermittelt mir das reale Gefühl einer Wand. Wir tricksen also und machen Menschen auf diese Weise glauben, dass es sich um eine reale Wand handelt.
Sind diese Technologien bereits einsetzbar, also arbeitet der Roboter in Echtzeit – genauso schnell, wie wir selbst agieren?
HK: Genau daran arbeiten wir gerade. Vor uns hat das noch niemand gemacht. Wir sind im zweiten Jahr dieser Forschung, aber es ist sehr viel Arbeit zu tun. Noch ist es nicht soweit und wir wissen noch nicht genau, wie es sich anfühlt, wenn sich so ein Brett mit einer Hand mitbewegt. Es ist noch schwer abzuschätzen, wann wir damit einen Durchbruch haben. Unser Ziel ist, dass ein realistischer Eindruck von der Berührung virtueller Inhalte entsteht, sodass Benutzer_innen denken, diese virtuellen Dinge sind in der Realität vorhanden.
Die haptische Illusion – wenn aus Beton Samt wird
Interessant finde ich die Frage, wie wir Menschen täuschen können. Der sich mitbewegende Roboter, von dem ich gerade erzählt habe, ist ein Beispiel dafür, ein weiteres ist die haptische Illusion. Experimente in VR beweisen, dass der visuelle Sinn den taktilen immer überlagert, wie ich vorhin erwähnt habe. Zum Beispiel kann ich Ihnen einen Zylinder geben, zeige Ihnen aber eine etwas gekrümmte Vase. Was passiert? Sie spüren den Zylinder, erkennen aber eine Vase – weil Sie sie sehen.
Kollegen in Berlin haben uns erzählt, dass sie einen Gast auf diese Weise glauben machten, dass ein Raum mit Samt ausgekleidet sei. Als sie diese Person das nächste Mal besuchte, erkundigte sie sich nach der Samtwand – und war vollkommen überrascht, dass es sich dabei um nackte Betonwände gehandelt hatte.
Der visuelle Sinn kann übrigens auch das Hören überlagern.
Riechen ist Schmecken
Nun noch zu Geruch und Geschmack: Geschmack lässt sich synthetisieren. Wir können die fünf Geschmackssensoren, die sich auf unserer Zunge befinden ansprechen: süß, salzig, sauer, bitter und umami. Ein Kollege aus England hat ein Gerät mit diesen fünf Geschmackstoffen entwickelt. Damit kann er synthetisch verschiedene Geschmäcker herstellen. Er hat einen Roibuschtee analysieren lassen und es geschafft, damit einen sehr ähnlichen Geschmack synthetisch herzustellen, den Testpersonen nicht vom realen Roibuschtee unterscheiden können.
Kommen wir zu einer weiteren Komponente: Geschmack ist zu 80 Prozent Geruch. Das heißt, was man riecht, ist entscheidend für die Wahrnehmung von Geschmack. Geruch ist aber deutlich schwieriger zu synthetisieren, denn ein Geruch besteht aus tausenden von Molekülen. Erdbeer- oder Waldgeruch können wir schon in Flacons kaufen, aber bei komplexeren Gerüchen wird es schwierig, denn für den Geruch entscheidende Moleküle lassen sich nicht einfach zusammenbauen. Zum Beispiel sind die Gerüche von bestimmten Räumen äußerst komplex. Denken wir an unser Audimax – Gerüche verändern sich außerdem, sobald sich Menschen darin befinden.
Das ist also in etwa der Stand der Forschung zu den Sinnen.
Was denken Sie, wie lange es noch dauern wird, bis wir Geräte wie die VR-Kontaktlinse kaufen können oder ausdifferenzierte Gerüche produziert und eingesetzt werden können?
HK: Es kommt immer darauf an, wie viel Hardware man an sich tragen möchte. Derzeit haben wir noch klobige Geräte. Das Ziel ist es ja, dass jeder eine Brille unkompliziert tragen kann: Sie soll leicht sein und keine Probleme verursachen. Von der Miniaturisierung der Technologie sind wir noch einige Zeit entfernt. Die Entwicklung läuft stetig, aber es ist schwer abzusehen, wann Technologiesprünge stattfinden. Es kann sehr schnell gehen, aber es kann auch noch dauern.
Wir Cyborgs
Wie Sie sehr anschaulich beschrieben haben, holen wir uns die Technologie immer näher an den Körper heran oder sie befindet sich bereits im Körper. Wie weit sind wir schon Cyborgs oder Transhumans?
HK: Viele empfinden das Handy schon als erweiterten Sensor. Es stellt sich auch für jeden einzelnen die Frage, wieviel Technologie man im Körper oder am Körper akzeptieren möchte. Das wandelt sich im Laufe der Zeit – wenn es einmal Implantate gibt oder auf der Haut Anwendungen gibt, die Menschen als sinnvoll erachten, kann ich mir vorstellen, dass sie auch gesellschaftlich immer mehr akzeptiert werden.
Für mich ist der Begriff Cyborg durch implantierte Technologie bestimmt. Implantate bringen medizinische Probleme (Akzeptanz des Fremdkörpers), bringen aber auch eine Abhängigkeit von Technologie, von Stromversorgung, drahtloser Netzwerkanbindung und so weiter, und erlauben im schlimmsten Fall die Kontrolle unseres Körpers von außen. Nichts davon empfinde ich als erstrebenswert.
Was haben Sie für eine Haltung zu all diesen Möglichkeiten der Selbstoptimierung oder auch zum Experimentieren mit Technologie am und im Körper?
HK: Ich bin der Meinung, dass alles, was medizinisch hilft gut und sinnvoll ist: Z.B. Herzschrittmacher, Dialyse für Kinder oder Diabetesimplantate, die bestimmte Mengen an Insulin freigeben, auch Parkinsonkranken kann durch ein Implantat geholfen werden, das ihr Zittern durch elektrische Impulse reguliert.
Wesentlich ist auch, dass der Mensch selbst entscheiden kann. Bei Gimmicks bin ich skeptisch – abgesehen von einer Ausnahme [lacht]: Ich würde mir wünschen, dass ich mit meiner Brille gleich zwei Kilometer weit sehen könnte. Das wäre doch viel sinnvoller, als eine Brille zu tragen, die nur meine Sehschwäche ausgleicht!
Das ist auch der Aspekt, der Künstler und die Transhumanismus-Bewegung interessiert. Z.B. den Künstler Neil Harbisson, öffnet eine externe URL in einem neuen Fenster, der mit seinem Cyborg-Eye Farben als Töne wahrnehmen kann. Er hat auch eine Cyborg Foundation, öffnet eine externe URL in einem neuen Fenster gegründet, die die Interessen von Cyborgs (als der er sich selbst versteht) vertritt. Er tritt dafür ein, mithilfe von Technologie zusätzliche Fähigkeiten zu erlangen und damit seine Sinneswahrnehmungen zu erweitern.
Revolution Gedankenübertragung
Was denken Sie, welche nächste große Entwicklung uns bevorsteht, die aber derzeit noch Science Fiction ist?
HK: Ich denke, dass die nächste große Revolution die Gedankenanalyse- und -übertragung sein wird. Durch Fortschritte in der Signalanalyse – Deep Learning – scheint die Dekodierung von Gehirnsignalen als nächstes Forschungsfeld möglich. Konkret gedacht: Dafür wird es definitiv Implantate brauchen, also die Körpergrenze muss überschritten werden, denn wenn wir Gehirnimpulse aufnehmen möchten, sind diese durch unsere Schädelknochen und Haare stark vermindert und gestört. Wenn wir bestimmte Gehirnregionen analysieren und erfassen möchten, brauchen wir implantierte Sensoren. Es gibt Forschungen mit Elektroden, die am Gehirn angebracht werden, mit dem Ziel Signale auszulesen und damit Geräte zu steuern. Hier haben medizinische Anwendungen Vorrang – etwa mit vollständig gelähmten Patient_innen, die im Koma liegen. Solche Anwendungen gibt es bereits, allerdings funktioniert die Kommunikation damit sehr langsam – die Betroffenen buchstabieren maximal 50-90 Zeichen pro Minute.
Ich denke, dass diese Technologie in den nächsten 50 Jahren nicht ohne Implantate funktionieren wird und auch nicht, dass sich die Menschen in naher Zukunft Elektroden ins Gehirn implantieren lassen. Hier geht es also nicht darum, dass ein Gerät nicht bloß am Kopf angebracht ist – es muss sich um zu funktionieren tatsächlich innerhalb des Kopfes befinden. Die Risiken sind hier groß, medizinisch ist so ein Eingriff schwer vertretbar. Und nicht zuletzt sind ethische Fragen zu diskutieren.
Die Anfänge im medizinischen Bereich sind gemacht. Aber soweit ich weiß, gibt es noch keine Methoden, um komplexere Gedanken oder Wünsche zu erkennen und auszulesen. Weil die unterschiedlich vernetzt sind, also im Gehirn in unterschiedlichen Regionen abgelegt sind und starke individuelle Unterschiede bestehen.
Ich zweifle auch daran, ob eine solche Entwicklung erstrebenswert ist. Aber es zeigt sich immer wieder: Alles, was technisch möglich ist, wird auch gemacht. Aber wir sollten uns bei all dem immer die Sinnfrage stellen, denn einmal realisiert, lassen sich Entwicklungen schwer kontrollieren oder rückgängig machen. Für mich persönlich muss Technologie sinnvoll sein: wenn sie also Menschen hilft und einen wirklichen Mehrwert liefert. Leider werden heute vielfach Dinge nur deswegen produziert, weil sie sich verkaufen lassen und nicht, weil sie sinnvoll sind.
Wenn ich an Gamer denke, bin ich sicher, dass sich einige Technologie implantieren lassen würden, damit sie im Spiel schneller reagieren können. Ich halte das weder für richtig noch für ethisch vertretbar. Aber ich bin sicher, dass es passieren wird. Ich plädiere aber dafür vorsichtig zu bleiben und technologische Ergänzungen nur außerhalb unseres Körpers vorzunehmen. Wenn es um den menschlichen Körper geht, müssen wir sehr sorgsam und mit Bedacht vorgehen.
Sie plädieren also für einen Reflexionsprozess bevor große technologische Veränderungen umgesetzt werden?
HK: Ja! Mir ist bewusst, dass sich Entwicklungen schwer abschätzen lassen, auch wie sich Akzeptanz in der Gesellschaft entwickelt und welche Zeithorizonte es dafür braucht. Aber wir haben bereits gesehen, dass die Folgen unserer Technologieentwicklung nicht bedacht wurden, auch politisch. Politische Entscheidungen werden leider immer erst dann getroffen, wenn es viel zu spät ist. Das haben wir beim Internetboom der 1990er-Jahre gesehen. Im Zuge dessen sind wesentliche gesellschaftliche Probleme entstanden – wenn wir an Mobbing in den sozialen Netzwerken, Hasspostings und andere Dinge denken. Man hätte frühzeitig und rechtzeitig über rechtliche Einschränkungen nachdenken müssen. Erst jetzt werden die großen Provider dazu gezwungen, die Inhalte auf ihren Plattformen zu kontrollieren.
Ich weiß, diese Entwicklungen sind schwer abzuschätzen, aber die Politik ist gerade deswegen auch umso mehr aufgerufen, sich intensiv mit der Technologiefolgenabschätzung zu beschäftigen.
Dieses Interview entstand im Rahmen eines Beitrags für TUW Magazine Themenheftes „Science Fiction“. Hier, öffnet eine externe URL in einem neuen Fenster ein kostenloses Abo abschließen.
Hannes Kaufmann ist Professor an der TU Wien für Virtual and Augmented Reality, öffnet eine externe URL in einem neuen Fenster und leitet den gleichnamigen Forschungsbereich. Seine Schwerpunkte sind u.a.: mobile Computing, 3D User Interface Design, Bildung in Mixed Reality, VR, Bewegung und Tracking sowie Augmented Reality.
Interview: Edith Wildmann