Staats- und Regierungschefs müssen handeln Endlich aufwachen! Künstliche Intelligenz wird den Menschen überholen

Führende KI-Wissenschaftler haben einen dringenden Appell an die Staats- und Regierungschefs der Welt gerichtet. Sie fordern strenge Maßnahmen, um die Entwicklung von KI zu kontrollieren und ihren Missbrauch zu verhindern.

Bild: DALL·E, publish-industry
21.05.2024

Forscher der Universität Oxford fordern von den Staats- und Regierungschefs der Welt stärkere Maßnahmen gegen die Gefahren der Künstlichen Intelligenz. Sie warnen, dass die Entwicklungen seit dem ersten KI-Sicherheitsgipfel in Bletchley Park vor sechs Monaten unzureichend seien. Deshalb fordern die Wissenschaftler strenge Richtlinien, um die Entwicklung von KI zu kontrollieren und ihren Missbrauch zu verhindern.

Auf dem ersten KI-Sicherheitsgipfel haben sich die Staats- und Regierungschefs der Welt zu einem verantwortungsvollen Umgang mit Künstlicher Intelligenz verpflichtet. Im Vorfeld des zweiten KI-Sicherheitsgipfels in Seoul (21.-22. Mai) warnen jedoch 25 der weltweit führenden KI-Forscher davor, dass nicht genug getan wird, um uns vor den Risiken der Technologie zu schützen.

Sicherheit und Ethik in den Vordergrund rücken

In einem Konsenspapier, das in der Fachzeitschrift Science veröffentlicht wurde, skizzieren die Forscher dringende politische Prioritäten, die von führenden Politikern weltweit beschlossen werden sollten, um den Bedrohungen durch KI-Technologien zu begegnen.

„Die Welt war sich auf dem letzten KI-Gipfel einig, dass wir handeln müssen, aber jetzt ist es an der Zeit, von vagen Vorschlägen zu konkreten Verpflichtungen überzugehen. Dieses Papier enthält viele wichtige Empfehlungen für Maßnahmen, zu denen sich Unternehmen und Regierungen verpflichten sollten“, sagt Mitautor Professor Philip Torr von der Fakultät für Ingenieurwissenschaften der Universität Oxford.

Mitautor Dr. Jan Brauner von der Fakultät für Informatik der Universität Oxford erklärt: „Derzeit konzentriert sich die KI-Welt darauf, die KI-Fähigkeiten immer weiter auszubauen, während Sicherheit und Ethik nachrangig sind. Wenn KI ein Segen sein soll, müssen wir uns neu orientieren; es reicht nicht aus, die Fähigkeiten zu steigern.“

Die Welt reagiert nicht auf den potenziell schnellen Fortschritt der KI

Die Autoren des Papiers sind der Ansicht, dass die führenden Politiker der Welt die Möglichkeit ernst nehmen müssen, dass innerhalb dieses oder des nächsten Jahrzehnts hochleistungsfähige generative KI-Systeme entwickelt werden, die die menschlichen Fähigkeiten in vielen kritischen Bereichen übertreffen. Zwar hätten Regierungen weltweit über KI im Grenzbereich diskutiert und erste Richtlinien eingeführt, doch stehe dies in keinem Verhältnis zu den schnellen und transformativen Fortschritten, die viele Experten erwarten.

Die derzeitige Forschung im Bereich der KI-Sicherheit ist sehr unzureichend, nur schätzungsweise 1 bis 3 Prozent der KI-Publikationen betreffen die Sicherheit. Darüber hinaus verfügen wir weder über die Mechanismen noch über die Institutionen, um Missbrauch und Leichtsinn zu verhindern, auch nicht im Hinblick auf den Einsatz autonomer Systeme, die in der Lage sind, eigenständig zu handeln und Ziele zu verfolgen.

Weltweit führende KI-Experten rufen zum Handeln auf

Vor diesem Hintergrund hat eine internationale Gemeinschaft von KI-Pionieren einen dringenden Aufruf zum Handeln veröffentlicht: Insgesamt 25 der weltweit führenden akademischen Experten für KI und deren Steuerung. Die Autoren kommen aus den USA, China, der EU, dem Vereinigten Königreich und anderen KI-Mächten, darunter Turing-Preisträger, Nobelpreisträger und Autoren von Standard-KI-Lehrbüchern. Für den Science-Artikel hat sich zum ersten Mal eine internationale Expertengruppe in dieser Größenordnung auf Prioritäten für globale politische Entscheidungsträger in Bezug auf die Risiken fortgeschrittener KI-Systeme geeinigt.

Lesen Sie mehr im Web-Magazin Industry.zero & Transformation!

Das raten die Experten den Regierungschefs:

  • Schnell reagierende, fachkundige Institutionen für die KI-Aufsicht einzurichten und diese mit weitaus mehr Mitteln auszustatten, als sie nach fast allen derzeitigen politischen Plänen erhalten sollen. Zum Vergleich: Das US-amerikanische Institut für KI-Sicherheit verfügt derzeit über ein Jahresbudget von 10 Millionen Dollar, während die US-amerikanische Food and Drug Administration (FDA) über ein Budget von 6,7 Milliarden Dollar verfügt.

  • Sehr viel strengere Risikobewertungen mit durchsetzbaren Konsequenzen vorschreiben, anstatt sich auf freiwillige oder unzureichend spezifizierte Modellbewertungen zu verlassen.

  • Von KI-Unternehmen verlangen, dass sie der Sicherheit Vorrang einräumen und nachweisen, dass ihre Systeme keinen Schaden anrichten können. Dazu gehört auch die Verwendung von „Sicherheitsfällen“ (die für andere sicherheitskritische Technologien wie die Luftfahrt verwendet werden), wodurch die Last des Sicherheitsnachweises auf die KI-Entwickler verlagert wird.

  • Einführung von Standards zur Risikominderung, die den von KI-Systemen ausgehenden Risiken angemessen sind. Eine dringende Priorität ist die Einführung von Richtlinien, die automatisch ausgelöst werden, wenn KI bestimmte Fähigkeitsmeilensteine erreicht. Bei schnellen Fortschritten der KI treten automatisch strenge Anforderungen in Kraft, bei langsameren Fortschritten werden die Anforderungen entsprechend gelockert.

Dem zufolge müssen die Regierungen bereit sein, bei außergewöhnlich leistungsfähigen künftigen KI-Systemen die Führung bei der Regulierung zu übernehmen. Dazu gehören die Erteilung von Lizenzen für die Entwicklung dieser Systeme, die Einschränkung ihrer Autonomie bei gesellschaftlichen Schlüsselaufgaben, die Einstellung ihrer Entwicklung und ihres Einsatzes als Reaktion auf besorgniserregende Fähigkeiten, die Vorgabe von Zugangskontrollen und die Forderung nach Informationssicherheitsmaßnahmen, die gegen Hacker auf staatlicher Ebene resistent sind, bis ein angemessener Schutz zur Verfügung steht.

Die Auswirkungen der KI könnten katastrophal sein

Die KI macht bereits rasche Fortschritte in kritischen Bereichen wie Hacking, soziale Manipulation und strategische Planung und könnte schon bald beispiellose Kontrollprobleme aufwerfen. Um unerwünschte Ziele zu erreichen, könnten KI-Systeme das Vertrauen von Menschen gewinnen, Ressourcen aneignen und wichtige Entscheidungsträger beeinflussen. Um menschliche Eingriffe zu vermeiden, könnten sie in der Lage sein, ihre Algorithmen über globale Servernetzwerke zu kopieren.

Cyberkriminalität im großen Stil, soziale Manipulation und andere Schäden könnten rasch eskalieren. In offenen Konflikten könnten KI-Systeme eine Vielzahl von Waffen, einschließlich biologischer Waffen, autonom einsetzen. Es besteht daher die sehr reale Gefahr, dass unkontrollierte Fortschritte in der KI zu großflächigen Verlusten von Leben und der Biosphäre sowie zur Marginalisierung oder Auslöschung der Menschheit führen.

Ohne Maßnahmen keine Sicherheit

„Die Welt war sich auf dem letzten KI-Gipfel einig, dass wir handeln müssen, aber jetzt ist es an der Zeit, von vagen Vorschlägen zu konkreten Verpflichtungen überzugehen. Dieser Artikel enthält viele wichtige Empfehlungen dafür, wozu sich Unternehmen und Regierungen verpflichten sollten“, so Professor Philip Torr.

Dr. Jan Brauner sagte: „Technologien wie die Raumfahrt, Atomwaffen und das Internet sind innerhalb weniger Jahre von der Science-Fiction zur Realität geworden. Bei der KI ist es nicht anders. Wir müssen uns jetzt auf Risiken vorbereiten, die wie Science-Fiction erscheinen mögen - wie KI-Systeme, die sich in wichtige Netze und Infrastrukturen einhacken, politische Manipulation in großem Maßstab, KI-Robotersoldaten und völlig autonome Killerdrohnen und sogar KI, die versucht, uns zu überlisten und sich unseren Bemühungen zu entziehen, sie abzuschalten.“

„Derzeit konzentriert sich die KI-Welt darauf, die KI-Fähigkeiten immer weiter auszubauen, während Sicherheit und Ethik in den Hintergrund treten. Wenn KI ein Segen sein soll, müssen wir uns neu orientieren; es reicht nicht aus, die Fähigkeiten zu steigern.“

Firmen zu diesem Artikel
Verwandte Artikel