Risiko "Künstliche Intelligenz": Wird KI uns zerstören? Ein Für und Wider
Künstliche Intelligenz entwickelt sich exponentiell, heißt es. Sie könnte uns schon bald überlegen sein, heißt es. Wie ernst ist es wirklich? Ein Für und Wider von zwei Experten.
Die Warnung ist nur 23 Wörter lang, aber sie hat es in sich. Das Risiko der Auslöschung durch Künstliche Intelligenz sei real, heißt es in der Erklärung des Center for AI Safety in San Francisco. Es müsse mindestens so ernst genommen werden wie Pandemien oder ein Atomkrieg. Unter den Erstunterzeichnern: Sam Altman, Gründer von ChatGPT, ausgerechnet.
Wow. Was für eine Ansage. Daniel Privitera ist Gründer des Zentrums für KI-Risiken und -Auswirkungen (KIRA) und gehört zu den Unterzeichnern der Erklärung. Der Oxford-Doktorand nennt schon die aktuell entwickelten KI-Systeme Blackboxen, ...
... deren inneres Funktionieren wir überhaupt nicht verstehen. Und wenn man etwas nicht versteht, dann kann man es natürlich auch nicht verlässlich kontrollieren.
Daniel Privitera, Unterzeichner der Erklärung
Ist die Warnung nur ein PR-Stunt?
Matthias Spielkamp, Mitgründer von AlgorithmWatch, ist hingegen sauer über das Alarm-Statement, »weil das, was da behauptet wird, sehr, sehr unwahrscheinlich ist«. Er unterstellt Sam Altman einen PR-Stunt, um »davon abzulenken, dass in der EU schon eine KI-Verordnung unterwegs ist und er einfach damit erreichen möchte, dass die Leute in eine andere Richtung gucken und sagen: Oh, wir haben hier wichtigere Probleme.«
Privitera wiederum hat überzeugt, dass das Statement neben ChatGPT-Gründer Sam Altman eben auch Hunderte KI-Spitzenforscher unterschrieben haben - von der Stanford Universität bis zum Massachussetts Institute of Technology (MIT). Sie dürften, sagt er, keine finanziellen Interessen daran haben.
Wie kann KI reguliert werden?
Über das Worst Case Scenario, also die Vernichtung der Menschheit durch Maschinen, haben beide Experten unterschiedliche Ansichten. »Eine unsinnige Science Fiction-Vorstellung«, nennt es Matthias Spielkamp von AlgorithmWatch. »Wir sind die Menschen, und wir kontrollieren die Systeme und die KI.«
Privitera hingegen ist »sehr besorgt«. Er sieht ein Wettrennen von KI-Unternehmen ohne demokratisch legitimierte Kontrolle. Was hilft? Kann der Mensch notfalls nicht einfach den Stecker ziehen, wenn die Maschinen zu übernehmen drohen?
Warum »Stecker ziehen« nicht so einfach geht
»Das ist natürlich die erste Hoffnung, die man hat, wenn es ungemütlich wird«, sagt Privitera. »Das geht aber nicht, weil man sich so eine KI nicht als physische Maschine vorstellen sollte, wo man eben einfach nur die Stromzufuhr kappt. Es sind Programme, die sich kopieren und verschicken lassen.«
Daniel Privitera, selbst gerade von einer Silicon Valley-Reise zurückgekehrt, fürchtet, »dass diese Modelle sich eines Tages auch selbst vervielfältigen und kopieren können und zudem immer besser darin werden, Menschen zu manipulieren.«
EU will KI durch Selbstkontrolle regulieren
Aktuell arbeitet die EU an ihrem sogenannten «AI Act«, der KI-Verordnung. Sie ist damit weiter als beispielsweise die USA. Doch das Gesetz wird noch mindestens zwei Jahre brauchen, so sagt es die Kommission selbst. Offenbar getrieben von der galoppierenden technologischen Entwicklung, kündigt Kommissarin Margrethe Vestager nun fürs erste eine Vereinbarung über freiwillige Selbstkontrolle der Industrie an.
Welche Maßnahmen sieht der AI Act der EU vor?
Neben KI-Systemen mit »unannehmbarem Risiko« gibt es »Hochrisiko-KI-Systeme«, die »ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen« und nur betrieben werden dürfen, wenn unter anderem:
- eine durchgehende Risikoanalyse die bekannten und vorhersehbaren Risiken dokumentiert
- Qualitätskriterien bei Trainingsdaten eingehalten werden
- eine Aufzeichnung von KI-Vorgängen während des Betriebs stattfindet
- eine Beaufsichtigung durch Menschen gewährleistet wird
Zu »Hochrisiko-KI-Systemen« gehören solche, die zum Beispiel in den Bereichen der biometrischen Identifizierung (z.B. Gesichtserkennung), der kritischen Infrastruktur wie Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung oder in der Strafverfolgung verwendet werden.
Für KI-Systeme, die ein »geringes« oder »minimales Risiko« aufweisen, will die EU Transparenzpflichten verankern, wenn Anwendungen mit Menschen interagieren, eingesetzt werden, um Emotionen zu erkennen oder Inhalte erzeugen oder manipulieren (»Deepfakes«). In diesen Fällen muss gewährleistet werden, dass Nutzer über den KI-Einsatz oder -Ursprung Bescheid wissen - davon ausgenommen sollen unter bestimmten Bedingungen jeweils KI-Systeme werden, die »gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassen« sind. Quelle: Europäische Kommission
Spielkamp erwartet sich davon nichts. »Wir haben das in der Vergangenheit viel zu oft gesehen, dass die Politik darauf gesetzt hat, und dann war es Schall und Rauch. Das heißt, es müssen selbstverständlich Gesetze gemacht werden, die dann auch durchsetzbar sein müssen.« Auch Privitera sieht das so. Kontrolle müsse für alle verpflichtend und bindend sein...
Quelle: Den kompletten Artikel finden Sie auf ⇒ ZDF.de, Autorin: Christiane Hübscher