Ohne Moral geht es nicht Künstliche Intelligenz wird klüger als der Mensch

Bild: iStock, MF3d
30.10.2018

Wenn selbstlernende Maschinen den Konkurrenzkampf nicht gewinnen sollen, müssten die Schüler von heute schon jetzt Softskills lernen, die sie klar von den KI-Systemen abheben. Denn die künstliche Intelligenz wird schlauer sein als der Mensch, behauptet Alibaba-Chef Jack Ma. Doch könnte sie auch moralischer handeln als der Mensch ?

Kaum ein Thema bewegt die Science-Fiction-Filmemacher so sehr wie die Künstliche Intelligenz. Sie alle hinterfragen den Nutzen und die Gefahren dieser Technologie und den damit einhergehenden Wandel; vor allem den gesellschaftlichen. I-Robot, AI und die Serie Black Mirror zeigen dem Zuschauer, wie unsere Menschlichkeit und unser gesamtes Wertesystem auf den Kopf gestellt werden könnte. Filme, wie Her und Tau wiederum stellen dem Zuschauer die Frage, ob eine künstliche Intelligenz oder ein humanoider Roboter, wie Sophia, die das Menschsein und menschliche Mimik und Gestik imitieren, echte Gefühle beim Menschen auslösen. Dieser Frage gingen auch Forscher nach: Wir könnten gar nicht anders, als menschlich auf ein menschenähnliches Sein zu reagieren. Das liege an unserem angeborenen Sozialverhalten, heißt es in einer sozialpsychologischen Studie der Universität Duisburg-Essen (UDE). Johannes Winter von der Deutschen Akademie der Technikwissenschaften zufolge sind auch Angst und Zweifel natürliche menschliche Reaktionen auf diese Technologien. Diese gelte es ernst zu nehmen und in die Gestaltung der KI mit einzubeziehen, erklärte er im Juni diesen Jahres in einem Interview mit der E&E.

Die Politik macht sich stark für KI

Um eine gesellschaftsfähige KI-Nutzung und damit ein echten Nutzen, ist auch die Bundesregierung bemüht. Am 18. Juli hat das Bundeskabinett eine nationale Strategie für Künstliche Intelligenz beschlossen und zur öffentlichen Diskussion freigegeben. Die Bundesministerin für Bildung und Forschung Anja Karliczek stellte dazu im Kabinett die Eckpunkte einer Strategie vor, die bis Ende November diesen Jahres entwickelt werden soll. „Wir entscheiden als Gesellschaft, wie wir in der digitalen Welt zusammen leben wollen. Die Technologie muss stets dem Menschen dienen, nicht umgekehrt“, erklärte sie dabei. Die Eckpunkte dieser Strategie beinhalten: 1. Die KI-Forschung weiter und stetig auszubauen. 2. Die Forschung in die Wirtschaft bringen. Dazu sollen Anreize für Investoren geschaffen werden. 3. Vertreter aller Gesellschaftsbereiche müssten in einem ständigen Dialog bleiben.
Anfang Dezember diesen Jahres soll die Strategie auf dem Digital-Gipfel 2018 in Nürnberg öffentlich vorgestellt werden.

Arbeit 4.0: Trend oder Hype?

In der Wirtschaft wird KI bisher nur in geringem Umfang genutzt. Eine Umfrage des Marktforschungsunternehmens Wakefield Research zeigte, dass noch sehr wenig Firmen KI tatsächlich verwenden. Sie wird bisher eher als Trend gesehen. Der Studie zufolge wissen die meisten Unternehmen außerdem nicht, wie sie die Technologie richtig einsetzen können. Der VDMA betont allerdings ihre Vorteile. Laut dem Verband birgt der Einsatz von KI mehr Chancen, als Risiken. Einige KI-Technologien wie maschinelles Lernen werden in der Industrie bereits erfolgreich angewandt, etwa bei der Identifizierung von Mustern zur Fehlererkennung oder bei der Fernwartung von Maschinen. Der VDMA erwartet daher, dass KI in Zukunft eine zunehmend größere Rolle im Maschinenbau spielen wird und beispielsweise selbstlernende Systeme zu einer effizienteren Produktion und damit zu einer höheren Wettbewerbsfähigkeit beitragen. Die Sorge vor Jobverlusten hält der Verband für unbegründet und verweist auf den hohen Automatisierungsgrad in Deutschland, der zwar zu veränderten Jobprofilen, aber insgesamt zu einem Aufbau von Arbeitsplätzen geführt habe.

Ist die künstliche Intelligenz bald schlauer?

Eine andere Umfrage beleuchtet das Verhältnis der Arbeitnehmer zu Robotern und KI. Bereits 1,8 Millionen Industrie-Roboter sind im Einsatz und die meisten Arbeitnehmer finden es gut, dass gesundheitsschädliche Arbeit, etwa schweres Heben, nun von Kollege Roboter übernommen wird: Sie machen sich aber Sorgen, dass sie mit dem Tempo der Veränderung der Arbeitswelt 4.0 nicht mithalten können - insbesondere auf der Bildungsebene. Dafür wurden 7.000 Arbeitnehmer in den USA, Asien und Europa im Auftrag der Robotik- und Automationsmesse Automatica befragt. „Wie die Umfrage zeigt, wünschen sich die Arbeitnehmer bei der Aus- und Weiterbildung zur Arbeit 4.0 ein konsequenteres Engagement von Politik, Wirtschaft und Wissenschaft“, sagt Falk Senger, Geschäftsführer der Messe München. Um diesem Wunsch nachzukommen, ist die Gestaltung des Strukturwandels ein wichtiger Punkt in der nationalen Strategie für KI der Bundesregierung. Im Eckpunktepapier heißt es: „Nicht nur in Technologie muss investiert werden, sondern auch in die Erwerbstätigen und ihre Kompetenzen.“

„Unsere Kinder werden den Kampf gegen die Maschinen verlieren!“

Dass Bildung die Grundlage für die existentielle Sicherheit bedeutet, meint auch Jack Ma, Mitgründer und Executive Chairman des multinationalen Technologiekonzerns Alibaba. Er will die Bildung der Kinder stärken, um ihnen einen Vorsprung gegenüber Maschinen zu verschaffen. Er erklärte auf dem World Economic Forum im Januar, dass „unsere Kinder den Kampf gegen die Maschinen verlieren werden“. Maschinen seien schlauer. Bis 2030 würden weltweit fast 800 Millionen Jobs von Robotern übernommen. Doch er hat auch eine Lösung parat und erklärte dem Publikum im Forum, Lehrer müssten viel mehr tun, als reines Wissen zu transportieren. „Kinder sollten etwas Einzigartiges lernen. Sie sollten Werte, Überzeugung, unabhängiges Denken, Teamwork und Mitgefühl beigebracht bekommen“, meinte Ma. Vermittelt werden sollten den Kindern diese Fähigkeiten von den Lehrern über Sport, Musik und Kunst. „Wenn Maschinen alles besser können, sollten wir das lehren, was die Kinder von Maschinen unterscheidet“, erklärte Ma.
All diese Stimmen vermitteln eines: Wir diskutieren nicht mehr, ob wir KI-Technologien einsetzen, sondern wie. Die technologische Entwicklung ist nicht mehr aufzuhalten. Zu groß scheint der Nutzen. Zeit, über Verantwortung zu sprechen.

Eine moralische KI

Der Philosoph und Bestseller-Autor Yuval Noah Harari schlägt in seinem neuen Buch - 21 Lektionen für das 21. Jahrhundert - Alarm: „Auch wenn die technologische Entwicklung zahlreiche wunderbare Versprechen bereit hält, geht es mir hier in erster Linie darum, die Bedrohungen und Gefahren sichtbar zu machen.“ Er schreibt, dass KI und auch Biotechnologien der Menschheit die Macht verleihen würde, das Leben zu verändern und zu manipulieren. Daher bräuchten wir dringend eine klare Vorstellung dessen, was Leben überhaupt ausmacht. „Die unsichtbare Hand des Marktes wird uns ihre eigene blinde Antwort aufzwingen,“ befürchtet der Philosoph.

Gemeinsame moralische Werte sind ihm zufolge nötig, um die KI in die richtige Richtung zu steuern. Am Beispiel des autonomen Fahrens beschreibt er eine Notsituation, in der spielende Kinder vor ein selbstfahrendes Auto laufen. Der Algorithmus, der das Auto steuert, berechnet in einem Bruchteil einer Sekunde, dass sich der Zusammenstoß mit den Kindern nur vermeiden lässt, wenn das Auto auf die Gegenfahrbahn ausweicht. Dort würde es allerdings mit einem LKW kollidieren. Der Besitzer des Autos würde ums Leben kommen. Nun steht die Frage im Raum: Für welche der beiden Optionen solle sich der Algorithmus entscheiden? Ein Fahrer eines nicht-autonomen Fahrzeugs würde wahrscheinlich seinen Emotionen - in dem Fall Angst - folgen. Das ist verständlich. „Computeralgorithmen jedoch sind nicht durch die natürliche Auslese geprägt und sie verfügen weder über Emotionen noch über Bauchgefühle. Insofern könnten sie in Krisenmomenten moralische Prinzipien deutlich besser befolgen als Menschen - vorausgesetzt, wir finden eine Möglichkeit, Moral in präzise Zahlen und Statistiken umzuwandeln“, sagt Harari.

Keine menschenähnlichen Roboter

Wenn auch eine KI oder ein Roboter in Zukunft moralisch handeln könnte oder nicht: Nach einer Umfrage der Electronica sollen digitale Helfer nicht zu menschenähnlich erscheinen. Im Auftrag der Elektronik-Messe wurden 7.000 Verbraucher in den USA, China, Japan, Deutschland, Frankreich, Großbritannien und Italien im Juni 2018 dazu befragt, was die künstliche Intelligenz und Roboter dürfen und was nicht. Demnach sprechen sich 72 Prozent der Befragten dafür aus, dass eine Maschine immer auch als solche zu erkennen bleiben soll. Gleichzeitig bewerten auch 72 Prozent der weltweit Befragten positiv, dass Roboter künstliche Intelligenz einsetzen, um selbständig zu lernen und auf neue Situationen zu reagieren. Genauso viele wünschen sich vom Roboter Entscheidungshilfen – allerdings sollte die Kontrolle in den Händen der Menschen bleiben. Die Menschheit will ihr Zepter der Kontrolle also nicht aus der Hand geben. Dafür müssen sich Politik, Wirtschaft und Forschung einsetzen, damit die Menschen einen hilfsbereiten Assistenten haben, nicht aber ihr eigenes Denken aufgeben.

Bildergalerie

  • Sophia ist ein humanoider Roboter, der durch künstliche Intelligenz eine echte Unterhaltung zu vordefinierten Themen führen kann. Zu menschenähnlich sollte sie aber nicht werden: Laut einer Umfrage sprechen sich 
72 Prozent der Befragten dafür aus, dass eine Maschine immer auch als solche zu erkennen sein soll.

    Sophia ist ein humanoider Roboter, der durch künstliche Intelligenz eine echte Unterhaltung zu vordefinierten Themen führen kann. Zu menschenähnlich sollte sie aber nicht werden: Laut einer Umfrage sprechen sich
    72 Prozent der Befragten dafür aus, dass eine Maschine immer auch als solche zu erkennen sein soll.

    Bild: shutterstock, Anton Gvozdikov

Verwandte Artikel