Das DFKI (Deutsches Forschungsinstitut KI), das der Saarbrücker Uni angegliedert ist, befasst sich schon länger auch mit der Frage, wie KI sich in die moderne Gesellschaft integrieren läßt und ob diese in KI eine zunehmende Gefahr für deren eigene Entwicklung sehen muss oder nicht. Um es vorwegzunehmen: Gefahren sind da, sie werden vielleicht größer und wir haben heute noch keine wirklichen Instrumente, sie zu bekämpfen.
Antonio Krüger ist CEO des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Saarbrücken und hat dort eine Professur. Krüger forscht zur Mensch-Maschine-Interaktion. Im Interview äußert er sich zum Potenzial neuer Sprachmodelle à la ChatGPT. Das Interview, das heute vom CEO des Instituts, Krüger, in der SZ zu lesen war, beschäftigt sich damit und vor allem mit der Rolle von ChatGPT, einem Tool, das sich zunehmender Belebtheit erfreut und eine Vielzahl von Anwendungen generiert hat, von sinplen Fragestellungen über wissenschaftliche Erörterungen bis hin zu vollständigen Präsentationen, die Powerpoint nur wenig nachstehen. Diese Anwendungen oder Möglichkeiten solcher „Sprachmodelle – large language models“) setzen aber eines voraus, nämlich die kritische Begleitung durch denjenigen. der die Anwendung nutzt.
Diese kritische Begleitung durch einen mündigen Nutzer – ob es ihn wirklich gibt? – ist essentiell. Krüger aber notiert: „Aber die heutigen KI-Modelle machen dieses Schwert schärfer, weil die Dialoge plausibler sind und individueller zugeschnitten. Auch die Scam-Attacken, bei denen versucht wird, über Mails Daten abzuziehen, werden durch KI-gestützte Modelle personalisierter. Heute ist das dann vermeintlich der eigene Chef, der etwas von Ihnen will. Und das möglichst auch noch in dem Slang, der im Unternehmen verwendet wird und den die Modelle der Webseite entnehmen. Die gleiche Gefahr besteht in Meinungsbildungsprozessen. Wobei ich sagen würde, dass jede Gesellschaft die Meinung kriegt, die sie verdient. Das ist auch eine Frage der Erziehung. Aber ja, ich sehe diese Manipulierungsgefahr.“
Daher sind KI-Anwendungen sicher auch mit gesellschaftlichen Gefahren verknüpft, die ausschließlich durch kritische Nutzer erkannt und dann eliminiert werden können. Doch das hat leider Grenzen.
In der Medizin, der Kardiologie zumal, wird KI zunehmend genutzt für diagnostische Prozesse etwa im bildgebenden Bereich, für Behandlungspläne und für Dialogprozesse bei Verwendung von Implantaten. Zumindest hier kann Gefahr lauern, z.B. wenn Schrittmacher-Interaktionen nicht nur gestört, sondern auch manipuliert werden. Ein PM-abhängiger Patient könnte durch Funktionsausfall zu Tode kommen oder die Kenndaten werden so verändert, dass die Arzt-Gerät-Interaktion nicht mehr möglich ist, oder falsche Kenndaten übermittelt werden. Das ist mit KI alles möglich und stellt bisher unbekannte Gefahren dar. Hier wäre durch interaktive Kontrollen anzusetzen; doch wie – ist heute nicht bekannt. Auch sollte der Deviceträger-Patient über solche Fragen umfassend und eindrücklich informiert werden, ein heikles Thema, denn Verunsicherung ist gleichsam einprogrammiert.
Der Wissenschaftler wurde abschließend gefragt: Was ist die größte Gefahr der KI?
Antwort: Die lauert im Missbrauchspotenzial, ganz klar. Wenn die Modelle schrittweise in den nächsten fünf bis zehn Jahren überall Fuß fassen, entsteht da eine große Abhängigkeit. Stichwort Blackouts und Brownouts. Wenn wir da Missbrauch nicht konsequent verhindern können, ist das ein Infrastrukturrisiko. Deshalb sind KI und Cybersecurity zwei eng miteinander verknüpfte Themen.