Das Video verbreitete sich rasch: Der ukrainische Präsident Wolodymyr Selenskyj verkündete die Kapitulation und forderte seine Streitkräfte auf, die Waffen niederzulegen. Zumindest sah es stark danach aus. In Wahrheit handelte es sich bloß um eine digitale Version des Präsidenten, dem mit AI andere Worte in den Mund gelegt wurden.
Bald wurde das Video als Fälschung entlarvt – aber die Erstellung solcher Clips wird immer einfacher. Was passiert, wenn AI-generierte Deepfakes irgendwann so alltäglich werden, dass selbst medienkundige, rational denkende, reflektierte Menschen nicht mehr sicher sein können, was nun tatsächlich stimmt und was nicht?
Prof. Sabine Köszegi forscht am Institut für Managementwissenschaften der TU Wien. In den letzten Jahren wurde die Bedeutung künstlicher Intelligenz für unsere Gesellschaft zu einem zentralen Thema ihrer Forschung. „Wir erleben hier ein Ringen um die Wahrheit“, sagt sie. „Lange Zeit galt gerade die Wissenschaft, die universitäre Forschung als Garant für inhaltliche Korrektheit. Das hat sich verändert.“
Ein Grund dafür war der Social-Media-Boom: Plötzlich konnte man auch ohne einschlägige Fachkenntnis zum Influencer werden und Millionen Menschen erreichen – auch mit Aussagen, die aus wissenschaftlicher Sicht faktisch längst widerlegt sind. AI hat nun das Potenzial, diesen Trend noch einmal radikal zu verstärken. Aber wie geht man damit um?
Analoge Räume in einer digitalen Welt
„Wir müssen uns das nötige Vertrauen wieder erarbeiten – und das können wir nur schaffen, wenn wir parallel zur Digitalisierung auch wieder mehr Wert auf analoge Räume und analogen Austausch legen“, glaubt Sabine Köszegi. Direkter, persönlicher Kontakt hat eine Qualität, die sich auch durch hochentwickelte AI-Tools letztlich nicht ersetzen lässt.
„Wir kennen die Diskussion an Schulen und Universitäten: Wurde diese Hausaufgabe oder diese Diplomarbeit ehrlich erarbeitet, oder von der AI generiert? Die Frage stellt sich aber gar nicht, wenn man persönlichen Kontakt pflegt, wenn die Diplomarbeit im Team entsteht, und wenn ich als Professorin meine Studierenden ständig fachlich begleite“, sagt Köszegi. „Wenn man analoge Räume schafft, dann zeigt sich rasch: AI ist ein nützliches Werkzeug, kein Ersatz für menschliche Arbeit.“
Symbiose statt Verdrängungswettbewerb
Genauso wird man auch in der Wirtschaft neu über Digitalisierung und AI nachdenken müssen, ist Sabine Köszegi überzeugt: „Wir stoßen bei diesem Thema immer noch auf alte Vorstellungen, die nicht stimmen. Man betrachtet den Menschen als etwas Ineffizientes, Fehlerbehaftetes. Man versucht, ihn durch eine präzise und schnell arbeitende Maschine zu ersetzen. Stattdessen sollten wir über eine Mensch-Maschine-Symbiose nachdenken: Was wollen wir Menschen eigentlich machen, und welche Aufgaben wollen wir an Maschinen abgeben? Welche Kompetenzen haben wir, die eine Maschine einfach nicht haben kann? Das wird uns nicht einfach von den technischen Möglichkeiten vorgegeben, das können wir selbst festlegen.“
So gibt es etwa bereits sehr gute AI-Tools, die in der Dermatologie eingesetzt werden können: Ist ein bestimmtes Muttermal möglicherweise krankhaft, oder kann man Entwarnung geben? Die Trefferquote künstlicher Intelligenz ist hier sehr hoch, trotzdem haben Menschen nach wie vor das Bedürfnis, mit kompetenten Menschen darüber zu reden. „Das heißt, am besten wäre eine Kooperation“, glaubt Sabine Köszegi. „Die AI wird eingesetzt, korrigiert den Menschen etwa, wenn der Mensch dabei ist, einen Fehler zu machen, meldet sich dann zum Beispiel mit zusätzlichen Informationen oder ähnlichen Bildern anderer Fälle aus der Vergangenheit. Aber der Mensch wird nicht verdrängt, er bleibt Teil des Prozesses.“
Mehr AI, mehr Ungleichheit?
Das bedeutet freilich nicht, dass man sich entspannt zurücklehnen kann, im Vertrauen darauf, dass der Mensch zu einer friedvollen Symbiose mit der AI findet, von der alle profitieren. Sabine Köszegi sieht sehr wohl gesellschaftliche Gefahren, denen man entschieden entgegentreten muss: „Aktuelle Daten zeigen, dass AI bestehende Ungleichheiten sogar noch verstärken kann“, erklärt Köszegi. Man kennt das zum Beispiel von AI-Tools, die bei der Jobberatung helfen sollen: Da zeigte sich, dass die AI manchmal Jobempfehlungen nach stereotypen Geschlechterklischees vergab: Dem jungen Mann wurde empfohlen, Software-Entwickler zu werden, der jungen Frau ein Job als Pflegekraft – bei abgesehen vom Geschlecht völlig identischer Datenlage.
Der Grund ist bekannt: In unserer realen Welt gibt es Diskriminierung und Ungleichheit. Das spiegelt sich auch in den Daten wider, die dann zum Trainieren künstlicher Intelligenz verwendet werden. Die AI lernt die Diskriminierung somit automatisch mit.
Aber das Problem ist nicht nur, dass AI selbst diskriminierende Tendenzen entwickeln kann. Auch die Automatisierung insgesamt kann gesellschaftliche Ungleichheiten weiter verstärken: „Es gibt etwa erste Studien, die bereits zeigen, dass das Gender-Pay-Gap durch zunehmende Automatisierung wieder ansteigt“, berichtet Sabine Köszegi.
Auch bei der gesellschaftlichen Verteilung der Profite, die durch AI-Effizienzsteigerung entstehen, gibt es Ungleichheit: „In vielen Bereichen können in Zukunft wohl relativ untrainierte Menschen mit Hilfe von AI ähnliche Resultate erzielen wie heute Menschen mit einem hohen Maß an Training. Davon profitieren dann nur wenige, die Mittelschicht gerät in Gefahr“, befürchtet Köszegi. „Darauf sind wir als Gesellschaft derzeit nicht vorbereitet.“
Eine Frage der Kultur
Ausweglos erscheint die Situation für Köszegi aber keinesfalls: „Wir müssen uns einfach stärker auf das besinnen, was unsere Stärken als Menschen wirklich sind“, glaubt sie. So zitiert sie etwa Experimente, mit denen man den „Schwarmintelligenz-Effekt“ untersuchte, die „Wisdom of the Crowd“, die bei guter Zusammenarbeit vieler Menschen die Leistung einzelner Personen oft deutlich übertrifft. Man ließ unterschiedlich große Gruppen von Menschen bestimmte Aufgaben lösen – mal mit AI-Unterstützung und mal ohne. Und da zeigte sich, dass Menschengruppen ohne AI der AI selbst, aber auch AI-nutzenden Menschen oft überlegen waren – wenn es sich um große, gemischte Gruppen handelte. „Wisdom of the Crowd erreicht man nur durch Diversität. Wenn man ein Team aus sehr unterschiedlichen Menschen hat, dann entstehen oft Ideen, die sich anders kaum entwickeln können, ob mit oder ohne AI“, sagt Köszegi.
Was wir brauchen, ist also ein Kulturwandel: Die AI kommt nicht, um uns zu ersetzen. Aber sie kommt. Und wir müssen unseren Platz in dieser neuen Welt finden. Das wird gelingen, indem wir besser zusammenarbeiten – mit der AI, aber auch miteinander. „Es ist kein Entweder-Oder“, sagt Sabine Köszegi. „Im Gegenteil: Den vollen Nutzen aus AI und zunehmender Digitalisierung können wir genau dann ziehen, wenn wir uns über unsere menschlichen Bedürfnisse und Fähigkeiten selbst stärker klar werden, und wenn wir analoge Räume schaffen, in denen wir uns als Menschen treffen, austauschen und kooperieren.“ Nicht per Email, nicht per Social Media, sondern Mensch zu Mensch. Das ist nämlich etwas ganz Besonderes – und das wird kein Roboter je ändern.
Sabine T. Köszegi ist Professorin für Arbeitswissenschaft und Organisation am Institut für Managementwissenschaften der TU Wien. Ihre Forschung liegt an der Schnittstelle von Technologie, Arbeit und Organisation. Seit 2017 ist sie in der wissenschaftlichen Politikberatung engagiert, u.a. als Mitglied der High-Level Expert Group on Artificial Intelligence der Europäischen Kommission. Aktuell ist sie Vorsitzende des Beirats für Ethik der Künstlichen Intelligenz der österr. UNESCO Kommission und Mitglied des Beirats für Künstliche Intelligenz der Österreichischen Bundesregierung sowie des AI Advisory Pools der Stadt Wien.