Kaum eine Technik löst so viele Ängste aus wie die selbstlernenden Systeme, die wir künstliche Intelligenz (KI) nennen. Woran liegt das? Antworten gibt Markus Giesler, Professor für Marketing.
brand eins: Herr Giesler, im Netz ging kürzlich ein Video herum, das zeigt, wie zwei Männer sich eine Kiste zuwerfen, ein Roboter versucht erfolglos, diese abzufangen. Nach einer Weile greift er die Männer an und schnappt sich die Kiste. Das Video ist eine Fälschung, der Roboter computeranimiert. Trotzdem wurde der Film tausendfach geteilt. Zeigt das, wie viel Angst die Menschen vor KI und dem möglichen Aufstand der Maschinen haben?
Markus Giesler: Ja, das ist ein gutes Beispiel. Dieses Grundmotiv und die damit verbundenen Ängste sind tief verankert in unserem Bewusstsein, und vieles davon ist nicht rational, sondern emotional und mythologisch begründet. Die Angst, dass sich die Technik gegen uns wendet, ist ein klassisches Erzählmuster – und es tritt bei der KI momentan besonders deutlich zutage. Bei den Hightech-Unternehmen sieht man einen großen Optimismus, da werden Milliarden in KI investiert. Bei den Kunden hingegen sieht man oft Furcht, Unverständnis und sogar Wut. Dieser Widerspruch und die Frage, woher er kommt und wie Unternehmen ihn überwinden können, hat mich und meine Kollegen interessiert und zu unserer Studie motiviert (siehe am Ende des Interviews).
Vom „Zauberlehrling“ über „Metropolis“ bis zu „Matrix“ – Dystopien von einer Welt, in der sich Erfindungen des Menschen gegen ihn wenden, sind in Literatur und Film allgegenwärtig. Warum beeinflussen sie unser Denken in der Realität so stark? Vor den animierten Drachen in „Game of Thrones“ hat im echten Leben niemand Angst.
Weil das Verhältnis von Mensch und Technik ein so existenzielles ist. In seinem Buch „TechGnosis“ hat sich Erik Davis, ein Technikphilosoph aus Kalifornien, angeschaut, wie weit zurück man diese Narrative findet. Schon in der Antike erzählten sich die Menschen Geschichten über das Verhältnis zwischen Mensch und Technik. Und solche Narrative – wie eben das von der Technik, die aus dem Ruder läuft – spielen in fast allen Debatten, die wir derzeit führen, eine Rolle, egal ob es um Algorithmen oder um Privatsphäre geht.
Wie verbreiten sich diese Geschichten in der Gesellschaft?
Bislang ging man von einer Diffusion aus: Neue Technik erobert nach und nach die Gesellschaft. Erst die gut gebildeten, jüngeren sogenannten Early Adopter mit den wenigsten Berührungsängsten. Dann wird die Masse überzeugt und irgendwann ein paar ältere Nachzügler, die am skeptischsten waren. Empirisch lässt sich die Annahme jedoch nicht nachweisen, sie ist so nicht richtig.
Sondern?
Gerade unter den Early Adoptern gibt es oft sehr große Zweifel an der Vertrauens- und Glaubwürdigkeit sowie dem Sinn neuer Technik. Beim Thema KI geht es viel um Privatsphäre, um die Frage, wie Wissen mit Macht zusammenhängt, inwieweit ich mich durch KI selbst entmächtige, etwa am Arbeitsplatz. Diese Skepsis der Early Adopter betrifft übrigens nicht nur KI, sondern zum Beispiel auch Innovationen in der Medizin.
Wie lässt sich die Verbreitung von Technik also verstehen?
Ich plädiere für eine komplexere, soziologische Herangehensweise: Wie entwickeln wir ein intimes Verhältnis zum Beispiel zu einem Sprachassistenten? Was ist nötig, um solche Technik in mein Leben hineinzulassen? Dabei spielen viele Faktoren eine Rolle: Lebe ich in einer Familie oder allein? Wer sind meine Vorbilder? Wem glaube ich? Wie nehme ich Wissen auf? Das spielt alles eine Rolle und wird wiederum beeinflusst durch die Mythen und Geschichten, die wir kennen.
In den vergangenen Monaten zeigte sich, dass die Anbieter von Sprachassistenten auch unabsichtlich gemachte Aufzeichnungen teilweise von menschlichen Mitarbeitern auswerten lassen. Solche Enthüllungen sorgen stets für Empörung – aber ändert sich auch etwas an der Nutzung?
Nein, das sind rein emotionale Vertrauenskrisen. Wenn ich in meiner Beziehung Streit mit meiner Freundin habe, dann gibt es kurz Stress, aber dann ist es auch wieder vergessen. Die Fähigkeit, solche Vertrauenskrisen lange im Kopf zu behalten, ist geringer, als man denkt. Damit man sich wirklich trennt, muss schon etwas extrem Schwerwiegendes vorfallen.
Was wäre das in der Welt der Technik?
Der Absturz einer Concorde im Jahr 2000 brachte das Überschall-Passagierflugzeug so in Verruf, dass man beschloss, die Concorde komplett aus dem Verkehr zu ziehen. Es gibt also Fälle, in denen aus einer emotionalen Reaktion eine rationale Debatte entsteht, die alles infrage stellt. Aber das ist die absolute Ausnahme.
Sie haben in Ihrer Studie verschiedene negative Diskurse zum Thema KI identifiziert. Welche sind das?
Es gibt vier Befürchtungen im Zusammenhang mit KI. Die Angst vor Überwachung beispielsweise wie in „1984“. Oder die Angst, von intelligenten Maschinen versklavt zu werden wie in „Metropolis“. Die dritte große Angst ist die vor dem Ende des freien Willens, das wird im Film „Minority Report“ schön dargestellt.
Menschen werden für Verbrechen verhaftet, die sie noch gar nicht begangen haben, allein weil die KI ausgerechnet hat, dass sie diese bald begehen werden.
Genau. Die vierte Angst ist, dass wir all das verlieren, was uns als Menschen ausmacht, hier ist der Film „Ex Machina“ ein gutes Beispiel. Interessant ist, dass diese vier Ängste jeweils mit den vier Grundfähigkeiten der KI korrespondieren. Der Fähigkeit, immer bessere Vorhersagen zu treffen, steht die menschliche Angst gegenüber, komplett berechenbar zu werden; der Fähigkeit, Sprache zu verstehen, die Sorge, belauscht zu werden.
Welche Fähigkeit korrespondiert mit der Angst, von Maschinen versklavt zu werden?
Weiterlesen auf brandeins.de …
Foto: Arseny Togulev / Unsplash