„Es ist eine Achterbahnfahrt der Gefühle“
Künstliche Intelligenz verändert mit rasanter Geschwindigkeit unseren Alltag und wirft ebenso viele Fragen auf, wie sie Antworten liefert. Im wöchentlichen Deutschlandfunk-Podcast „KI verstehen“ spricht die Wissenschaftsjournalistin Friederike Walch über neue Entwicklungen, Anwendungen und Konfliktfelder. Im Gespräch erklärt sie, warum KI uns gleichzeitig fasziniert und verunsichert und warum wir lernen müssen, mit dieser Ambivalenz umzugehen.
DAB: Frau Walch, Sie beschäftigen sich jede Woche mit KI. Wie kommen Sie eigentlich an Ihre Themen?
Friederike Walch: Wir haben am Anfang sehr grundlegend angefangen. Wie funktioniert ein Sprachmodell, wie promptet man richtig – Basiswissen für den Umgang mit Chatbots im Alltag. Irgendwann sind wir dann dazu übergegangen, spezifische Bereiche gezielt anzuschauen. KI in der Medizin, KI in der Astronomie – also wirklich spezielle Themen, bei denen ich früher nie gedacht hätte, dass es dazu so viel spannende KI-Forschung gibt.
Gerade plane ich eine Folge zum Thema KI und Sprache, in der es darum geht, ob KI unsere Sprache verändert oder beeinflusst. Es ist eigentlich egal, in welchem Bereich man schaut, man findet überall Themen. Und ich bin jedes Mal wieder überrascht, wie sehr KI inzwischen in jeden Bereich der Gesellschaft hineinspielt.
Wenn KI in so vielen Bereichen gleichzeitig eine Rolle spielt – fällt es uns vielleicht auch deshalb schwer, sie richtig einzuordnen?
Ich glaube, ein Kernproblem ist, dass viel zu wenig differenziert wird. Auf der einen Seite stehen spezifische KI-Lösungen, die auf kontrollierten Datensätzen trainiert wurden und ganz klar für eine bestimmte Anwendung entwickelt wurden – sei es, um Antibiotikaresistenzen zu bekämpfen oder neue Galaxien im Weltraum zu finden. Das sind spezifische Algorithmen für spezifische Probleme.
Auf der anderen Seite stehen Konzerne in den USA oder China, die ganz offen Superintelligenz anstreben. Sie wollen ein Tool, das möglichst alle Bereiche des Alltags durchdringt und unser ständiger KI-Begleiter wird. Das ist ein riesiger Unterschied. Und weil sich generative KI so schnell entwickelt, muss man ständig erklären: KI ist nicht gleich KI.
Vielleicht noch eine Ergänzung: Wir haben uns für eine aktuelle Folge angeschaut, welche Ideologie eigentlich hinter großen Tech-Konzernen steckt. Da steckt viel aus der Effektiver-Altruismus-Debatte drin, also der Grundgedanke, möglichst effizient Gutes in der Welt zu bewirken. Aus dieser Blase kommen ursprünglich viele der Gründer aus dem Silicon Valley. Ich nehme diesen Menschen grundsätzlich ab, dass sie diese Technologie entwickelt haben, um Gutes zu bewirken. Aber Macht und Einfluss verändern Menschen. Und wir sehen Entwicklungen, die in meiner Wahrnehmung ein bisschen außer Kontrolle geraten sind. Zu viel Geld, Druck von Regierungen und Politik, so viel Einfluss …
Was macht diese Entwicklung mit Ihnen persönlich?
Es ist eine Achterbahnfahrt der Gefühle. In der einen Woche bin ich in Philadelphia und besuche einen Forscher, der an KI-generierten Antibiotika gegen Antibiotikaresistenzen arbeitet. Da denke ich: Wow, das ist ein Lösungsansatz, der uns so viel mehr weiterbringt als alles, was die Forschung in den letzten 20 Jahren in diesem Bereich geschafft hat. Und dann berichten wir in der nächsten Woche über den Einsatz von KI im Irankrieg. Plötzlich ist man mit einer Entwicklung konfrontiert, die so schnell passiert, dass man kaum hinterherkommt, und die auch sehr bedrohlich sein kann. Zwischen diesen Gefühlen zu pendeln, ist kräftezehrend.
Man braucht eine hohe Ambiguitätstoleranz, um zu akzeptieren, dass es eben nicht nur schwarz und weiß ist. Es ist auch wichtig, als Journalistin transparent zu machen, dass wir selbst in diesem Lernprozess stecken. Wir versuchen, Orientierung zu geben oder unseren eigenen Denkprozess in diesem ganzen Chaos zu zeigen. Dazu haben wir gerade ein neues Format gelauncht, „KI kontrovers“, wo immer zwei Hosts diskutieren und die Bandbreite der Meinungen testen.
Es verändert sich nicht nur der Arbeitsmarkt, sondern die Arbeit selbst.
Friederike Walch
Viele Menschen haben Angst, dass KI ihnen die Arbeit wegnimmt. Ist diese Sorge berechtigt?
Zu dieser Frage habe ich meine Meinung bestimmt fünfmal geändert. Anfangs dachte ich noch, dass wir uns vielleicht ein bisschen zu viele Sorgen machen. Inzwischen sehen wir aber ganz konkrete Fälle, in denen das tatsächlich passiert, gerade in Bereichen wie Werbung oder Grafikdesign.
Und was ich wichtig finde und worüber vielleicht noch zu wenig gesprochen wird: Es verändert sich nicht nur der Arbeitsmarkt, sondern die Arbeit selbst. Selbst die Tech-Branche ist inzwischen sehr stark betroffen. Wir haben diesen seltsamen Moment, in dem einerseits einzelne Spitzenkräfte von großen Konzernen abgeworben werden, während gleichzeitig ein großer Grundstock an Leuten, die im IT-Bereich arbeiten, inzwischen fast ersetzbar ist, weil KI auch im Programmieren immer besser wird.
Wie gut verstehen wir eigentlich noch, was KI-Systeme tun?
Wir haben heute Sprachmodelle, wo man nur noch reinpromptet und ein Ergebnis rauskommt, aber wirklich nachvollziehen, was im Modell passiert, können wir oft nicht. Im Programmierbereich ist das ein Einfallstor für Sicherheitslücken. Wenn wir den Code nicht genau nachvollziehen können, wissen wir nicht, welche Lücken darin stecken, die missbräuchlich genutzt werden könnten. In der Forschung müssen wir den Forschungsprozess nachweisen können, um evidenzbasiert zu arbeiten, was dann schwierig wird.
Die Entwicklung passiert so schnell, dass die Politik kaum hinterherkommt. Und ein gesellschaftlicher Diskurs kann kaum stattfinden, weil wir als Gesellschaft oft noch gar nicht verstanden haben, was diese Systeme alles können und welche Implikationen das hat.
Ich frage mich, wie viel von den neuen Transparenz-Features, also diesem sichtbaren „Denken“ der Modelle, wirklich abbildet, was im Modell passiert. Oder ob das schon wieder eine Übersetzung für uns Menschen ist. Modelle arbeiten ja eigentlich mit Tokens, und die entsprechen überhaupt nicht unserer Sprache.
Gleichzeitig gibt es viele positive Anwendungen – etwa im Alltag oder in der Barrierefreiheit. Wird das ausreichend gesehen?
Es gibt viele Bereiche, in denen KI das Potenzial hat, unsere Gesellschaft inklusiver zu machen. Wir können uns kaum ausmalen, wie stark sich das Leben mancher Menschen durch diese Tools bereits verändert hat. Das sind richtig emotionale Geschichten. Wir haben aber auch eine berechtigte Frustration.
Entwicklungen, die ursprünglich aus der Community von Menschen mit Beeinträchtigungen stammen, werden auf die Gesamtgesellschaft ausgerollt, ohne dass die Credits bei denjenigen landen, die sich ursprünglich dafür eingesetzt haben. Ein klassisches Beispiel sind Untertitel im Fernsehen: Sie sind heute für alle praktisch, wurden aber ursprünglich von und für Menschen entwickelt, die nicht hören können.
In Zukunft wird es vielleicht ein Qualitätsmerkmal sein, diesen Stempel zu haben: nicht KI-generiert.
Friederike Walch
Stichwort Fake News: Was bedeutet diese Entwicklung für den Journalismus?
Oft ist den Menschen gar nicht bewusst, dass Algorithmen bereits seit Langem in journalistischen Prozessen verankert sind. Welche Nachrichten werden mir ausgespielt? Übersetzungstools, Transkriptionen, Lektorat – all das ist schon lange mit journalistischem Arbeiten verwoben.
Bei meiner eigenen Recherche merke ich, dass ich aufpassen muss, nicht zur Fact-Checkerin statt zur Rechercheurin zu werden. Der Chatbot liefert mir eine Aussage, ich verifiziere die Quelle, arbeite mich aber vielleicht nicht mehr wie früher von vorne durch eine ganze Studie. Natürlich spare ich Zeit. Aber jemanden zu ersetzen, der seit zehn Jahren in einem Feld forscht und mir die zentralen Publikationen nennt, das kann KI-Recherche nicht. Ich glaube, in Zukunft könnte es ein Qualitätsmerkmal sein, wenn etwas nicht KI-generiert ist.
Die Entwicklung ist extrem schnell. Trauen Sie sich überhaupt noch Prognosen für die zukünftige Entwicklung zu?
Es kommt auf den Bereich an. Wir versuchen es jedes Jahr in unserer Neujahrsfolge und manche dieser Prognosen waren gar nicht so falsch. Aber vieles ist schlicht unberechenbar. Die aktuelle Lage mit Anthropic macht das sehr deutlich. Das Unternehmen ist auf dem aufsteigenden Ast, die Umsatzzahlen haben sich innerhalb von drei Jahren jährlich verzehnfacht – und trotzdem kann eine Regierung von heute auf morgen sagen: Ihr seid ein Lieferkettenrisiko für uns.
Wir sprechen von den wertvollsten Unternehmen der Welt und gleichzeitig von der volatilsten Branche, in der sich die Nachrichtenlage von einer Woche auf die andere ändern kann. Ich habe die Hoffnung, dass wir irgendwann in eine Stabilitätsphase übergehen, in der wir erkennen: Okay, jetzt wissen wir, was diese Systeme können und was nicht. Wann wir dort ankommen, traue ich mich ehrlich gesagt nicht zu prognostizieren.
DAB Redaktion
BerlinDas könnte Sie auch interessieren
Neues Wissen,
smarte Projekte und
inspirierende Ideen
Entdecken Sie die Welt der Architektur –
jetzt im exklusiven Newsletter!