zum Hauptinhalt
Führende Wissenschaftler auf dem Gebiet befürchten, dass Künstliche Intelligenz dazu eingesetzt werden könnte, totalitäre Unterdrückungssysteme zu schaffen.

© Getty Images/gremlin

„Verlust der Kontrolle über KI“: Forschende warnen vor extremen Risiken

Es sind verstörende Zukunftsvisionen führender Wissenschaftler. Die Forderung: Die Entwicklung Künstlicher Intelligenz müsse kontrolliert werden, um ihr Eintreten zu verhindern.

Es sind sachlich gehaltene Formulierungen in einem Meinungsartikel über Künstliche Intelligenz (KI), der vor dem am Dienstag in Seoul beginnenden zweiten KI-Sicherheitsgipfel in der Zeitschrift „Science“ erschienen ist. 25 Fachleute nennen „weitreichende soziale Schäden, böswillige Anwendungen und den unumkehrbaren Verlust der menschlichen Kontrolle“ als Risiken weiterer, unkontrollierter Entwicklungen der KI-Systeme.

In begleitenden Statements werden sie anschaulicher: Die Autoren warnen vor möglichen Folgen, die bis zur Etablierung totalitärer Unterdrückungssysteme und zur Auslöschung der Menschheit reichen.

Diese Umorientierung ist bereits überfällig.

Verfassergruppe eines Science-Meinungsbeitrags zur Kontrolle Künstlicher Intelligenz

„KI macht rasante Fortschritte und Unternehmen verlagern ihren Schwerpunkt auf die Entwicklung von KI-Systemen, die autonom handeln und Ziele verfolgen können“, schreiben die Forschenden. Politische Entscheidungsträger weltweit müssten die Risiken zur Kenntnis nehmen und mehr tun, um die Menschheit vor ihnen zu schützen.

Von Vorschlägen zu Verpflichtungen

„Ich glaube, dass die Vorteile der KI die Nachteile überwiegen werden, wenn wir vorsichtig vorgehen“, wird Mitverfasser Philip Torr vom Fachbereich Ingenieurwissenschaften der Universität Oxford in einer Mitteilung der Universität zitiert. Aber nach dem Experten für KI bestehe die Gefahr, dass Unternehmen und Industrie mit KI Daten schnell verarbeiten und die Gesellschaft kontrollieren könnten. „Wir könnten in eine Orwell’sche Zukunft abrutschen, in der eine Art totalitärer Staat die vollständige Kontrolle hat“, sagt Torr.

„Die Welt war sich schon auf dem letzten KI-Gipfel einig, dass wir handeln müssen, aber jetzt ist es an der Zeit, von vagen Vorschlägen zu konkreten Verpflichtungen überzugehen“, sagt Torr. In der Veröffentlichung werden Maßnahmen empfohlen, die Unternehmen und Regierungen umsetzen sollten. „Diese Umorientierung ist bereits überfällig“, schreiben die Autor:innen.

Die zentralen Punkte sind:

  • Schnell reagierende, fachkundige Institutionen für die KI-Aufsicht einzurichten und diese mit mehr Mitteln auszustatten, als sie nach fast allen derzeitigen politischen Plänen erhalten sollen.
  • Entwicklern strengere Risikobewertungen mit durchsetzbaren Konsequenzen vorzuschreiben, anstatt sich auf freiwillige oder mithilfe von Modellen erstellte Bewertungen zu verlassen.
  • Die Last von Sicherheitsnachweisen auf die KI-Entwickler zu verlagern, die dann nachweisen müssen, dass ihre Systeme keinen Schaden anrichten können.
  • Standards zur Risikominderung einzuführen, die dem Entwicklungsstand und den Fähigkeiten autonomer KI-Systeme gerecht werden.

Ohne Kontrolle könnten Unternehmen, militärische Organisationen oder Regierungen versuchen, sich Wettbewerbsvorteile zu verschaffen, indem sie KI-Entwicklungen vorantreiben, ohne ihre Sicherheit zu gewährleisten. Die Entwickler würden die Früchte der KI ernten, während die Gesellschaft die Folgen tragen müsse, schreiben die Autor:innen.

Es gibt mehr Vorschriften für Sandwich-Läden als für KI-Unternehmen.

Stuart Russell, Universität von Kalifornien in Berkeley

„KI-Technologien sind keine Spielzeuge“, wird Co-Autor Stuart Russell von der Universität von Kalifornien in Berkeley zitiert. „Ihre Fähigkeiten zu steigern, bevor wir wissen, wie wir sie sicher machen können, ist absolut unverantwortlich“, so der Autor eines Standardlehrbuchs über KI. Wenn sich Unternehmen dann beschwerten, dass Vorschriften Innovationen bremsen würden, wäre das „lächerlich“. „Es gibt mehr Vorschriften für Sandwich-Läden als für KI-Unternehmen“, sagt Russell.

„Eine sehr reale Möglichkeit“

Die 24 Autor:innen um den renommierten Computerwissenschaftler und Erstautoren Yoshua Bengio von der Universität Montreal sind Fachleute für KI unter anderem aus den USA, China und Europa, darunter der britische Computerwissenschaftler Geoffrey Hinton, der chinesische Turing-Preisträger Andrew Yao und der kürzlich verstorbene Wirtschaftsnobelpreisträger Daniel Kahneman. KI wird nach ihrer Auffassung bereits zunehmend in kritischen Bereichen eingesetzt und könnte bald kaum noch zu kontrollieren sein.

KI-Systeme könnten Vertrauen von Menschen gewinnen, sich Zugang zu Ressourcen verschaffen und gezielt Entscheidungsträger beeinflussen, um eigene Ziele zu verfolgen. Um sich menschlicher Kontrolle zu entziehen, könnten sie ihre Algorithmen auf Server-Netzwerke kopieren. Dann könnten Cyberkriminalität, gesellschaftliche Manipulationen und weitere KI-Aktivitäten weltweit rasch zunehmend Schaden anrichten.

KI-Systeme könnten vollautomatische Waffensysteme wie Dronen gegen Menschen einsetzen.

© IMAGO/ABACAPRESS/IMAGO/ABACA

Die Autoren gehen noch einen Schritt weiter und äußern sich auch zu offenen Konflikten. Demnach könnten KI-Systeme verschiedene Waffensysteme einschließlich biologischer Waffen gegen Menschen einsetzen. Daraus ergebe sich die „sehr reale Möglichkeit“, dass ihre unkontrollierte Weiterentwicklung bis zur Zerstörung großer Teile der natürlichen Umwelt und zur Marginalisierung oder Auslöschung der Menschheit führe.

Die Regierungen müssten KI-Entwicklungen regulieren können, mit Genehmigungen und bei besorgniserregenden Entwicklungen auch Verboten sowie Einschränkungen der Autonomie, mit der Systeme in gesellschaftliche Prozesse eingreifen könnten. Nur ein bis drei Prozent der bisherigen Fachveröffentlichungen zu KI behandelten das Thema Sicherheit.

„Die von uns beschriebenen Risiken sind nicht unbedingt langfristige Risiken“, sagt Jeff Clune, Professor für KI an der University of British Columbia. Die KI-Entwicklung schreite extrem schnell voran, auch mithilfe von KI. „Was passiert, wenn es einen Durchbruch bei der Schaffung eines sich schnell selbst verbessernden KI-Systems gibt?“, fragt Clune. Dies sei in naher Zukunft möglich und die Wahrscheinlichkeit steige mit jedem Monat, in dem sich die KI verbessere und die Investitionen in KI weiter zunähmen.

Die Autor:innen schreiben: „Um KI zu positiven Ergebnissen und nicht in die Katastrophe zu steuern, müssen wir uns neu orientieren. Es gibt einen verantwortungsbewussten Pfad, wenn wir klug genug sind, ihm zu folgen.“

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false