Von 1927 bis 2019 wurden weltweit mehr als 100 Filme über künstliche Intelligenz produziert. Und während einige Szenarien in einem guten Licht dargestellt werden, sind die anderen geradezu grauenhaft. In Filmen wie The Terminator, The Matrix, Avengers: Age of Ultron und vielen anderen hat die Filmindustrie Szenen in unsere gemeinsame Vorstellungswelt gestellt, die zeigen, wie intelligentere Maschinen die Welt übernehmen und die Menschheit versklaven oder ganz auslöschen werden. Das Potenzial von KI, besser zu werden als jede menschliche Intelligenz, zeichnet eine düstere Zukunft für die Menschheit.

In jüngster Zeit sind Länder auf der ganzen Welt in den Wettlauf um die Entwicklung künstlicher Intelligenz eingetreten. 20 Länder in der EU haben ihre Strategien zur Entwicklung von KI sowohl in der Forschung und Entwicklung als auch im Bildungswesen veröffentlicht. Künstliche Intelligenz ist ein heißes Eisen. Aber welche ethischen und praktischen Fragen sollten wir berücksichtigen, wenn wir die KI-Technologie mit Volldampf vorantreiben? Welche Risiken und Verantwortlichkeiten sollten Innovatoren bei unserem gemeinsamen Ziel, Geschäftsbereiche mithilfe von maschineller Intelligenz zu verändern, berücksichtigen?

Ja, KI-Agenten werden sehr wohl in der Lage sein – und sind es bereits -, Prozesse parallel zur menschlichen Intelligenz zu erledigen. Universitäten, private Organisationen und Regierungen entwickeln aktiv künstliche Intelligenz, die in der Lage ist, menschliche kognitive Funktionen wie Lernen, Problemlösung, Planung und Spracherkennung zu imitieren. Aber wenn es diesen Agenten an Einfühlungsvermögen, Instinkt und Weisheit bei der Entscheidungsfindung mangelt, sollte dann ihre Integration in die Gesellschaft eingeschränkt werden, und wenn ja, auf welche Weise?

Lassen Sie uns einige der ethischen Überlegungen im Bereich der KI durchgehen. Um es gleich vorweg zu sagen: Dieser Artikel soll Sie keineswegs von Ihrer Meinung überzeugen, sondern lediglich einige der wichtigsten großen und kleinen Probleme aufzeigen. Kambria ist zwar ein Befürworter der KI- und Robotertechnologie, aber wir sind keineswegs Ethikexperten und überlassen es Ihnen, zu entscheiden, wo Sie stehen. Ein Staubsaugerroboter ist eine Sache, aber ethische Fragen rund um KI in der Medizin, der Strafverfolgung, der militärischen Verteidigung, dem Datenschutz, dem Quantencomputing und anderen Bereichen sind tiefgreifend und wichtig zu bedenken.

1. Verlust von Arbeitsplätzen und Ungleichheit des Wohlstands

Eine der Hauptsorgen der Menschen im Zusammenhang mit KI ist der zukünftige Verlust von Arbeitsplätzen. Sollten wir uns bemühen, KI vollständig zu entwickeln und in die Gesellschaft zu integrieren, wenn dies bedeutet, dass viele Menschen ihren Arbeitsplatz – und damit möglicherweise ihre Lebensgrundlage – verlieren werden?

Nach dem neuen Bericht des McKinsey Global Institute werden bis zum Jahr 2030 etwa 800 Millionen Menschen ihren Arbeitsplatz durch KI-gesteuerte Roboter verlieren. Einige würden argumentieren, dass ihre Arbeitsplätze, wenn sie von Robotern übernommen werden, vielleicht zu niedere Tätigkeiten für Menschen sind und dass die KI für die Schaffung besserer Arbeitsplätze verantwortlich sein kann, die die einzigartigen menschlichen Fähigkeiten nutzen, die höhere kognitive Funktionen, Analyse und Synthese beinhalten. Ein weiterer Punkt ist, dass KI mehr Arbeitsplätze schaffen kann – schließlich werden Menschen damit beauftragt sein, diese Roboter zunächst zu entwickeln und sie dann in Zukunft zu verwalten.

Ein Problem im Zusammenhang mit dem Verlust von Arbeitsplätzen ist die Ungleichheit des Wohlstands. Man bedenke, dass die meisten modernen Wirtschaftssysteme von den Arbeitnehmern verlangen, dass sie ein Produkt oder eine Dienstleistung herstellen, wobei ihre Vergütung auf einem Stundenlohn basiert. Das Unternehmen zahlt Löhne, Steuern und andere Ausgaben, wobei die verbleibenden Gewinne oft wieder in die Produktion, die Ausbildung und/oder die Gründung weiterer Unternehmen fließen, um die Gewinne weiter zu steigern. In diesem Szenario wächst die Wirtschaft weiter.

Aber was passiert, wenn wir KI in den Wirtschaftskreislauf einführen? Roboter werden weder stundenweise bezahlt noch zahlen sie Steuern. Sie können einen Beitrag von 100 % leisten, mit geringen laufenden Kosten, um sie funktionsfähig und nützlich zu halten. Dies öffnet CEOs und Interessenvertretern die Tür, mehr Unternehmensgewinne zu behalten, die von ihren KI-Mitarbeitern erwirtschaftet werden, was zu einer größeren Vermögensungleichheit führt. Dies könnte dazu führen, dass „die Reichen“ – also die Personen und Unternehmen, die die Mittel haben, um für KI zu bezahlen – noch reicher werden.

2. KI ist unvollkommen – was, wenn sie einen Fehler macht?

KIs sind nicht davor gefeit, Fehler zu machen, und maschinelles Lernen braucht Zeit, um nützlich zu werden. Wenn sie gut trainiert sind und gute Daten verwenden, können KIs gute Leistungen erbringen. Wenn wir die KI jedoch mit schlechten Daten füttern oder Fehler bei der internen Programmierung machen, kann die KI Schaden anrichten. Teka Microsofts KI-Chatbot Tay, der 2016 auf Twitter veröffentlicht wurde. In weniger als einem Tag lernte der Roboter aufgrund der Informationen, die er von anderen Twitter-Nutzern erhielt und lernte, rassistische Parolen und Nazi-Propaganda zu verbreiten. Microsoft schaltete den Chatbot sofort ab, da sein Fortbestehen dem Ruf des Unternehmens offensichtlich geschadet hätte.

Ja, KIs machen Fehler. Aber machen sie mehr oder weniger Fehler als Menschen? Wie viele Menschenleben haben Menschen durch Fehlentscheidungen genommen? Ist es besser oder schlechter, wenn eine KI denselben Fehler macht?

3. Sollte es KI-Systemen erlaubt sein, zu töten?

In dieser TEDx-Rede beschreibt Jay Tuck KI als Software, die ihre eigenen Updates schreibt und sich selbst erneuert. Das bedeutet, dass die Maschine nicht so programmiert ist, dass sie das tut, was wir von ihr wollen – sie tut das, was sie zu tun lernt. Jay beschreibt einen Vorfall mit einem Roboter namens Tallon. Sein computergesteuertes Gewehr war verklemmt und feuerte nach einer Explosion unkontrolliert los, wobei 9 Menschen getötet und 14 weitere verletzt wurden.

Predator-Drohnen wie der MQ-1 Predator von General Atomics gibt es seit über einem Jahrzehnt. Diese ferngesteuerten Flugzeuge können Raketen abfeuern, obwohl das US-Gesetz vorschreibt, dass Menschen die eigentlichen Tötungsentscheidungen treffen. Doch da Drohnen bei der militärischen Luftverteidigung eine immer größere Rolle spielen, müssen wir ihre Rolle und ihren Einsatz genauer untersuchen. Ist es besser, KI zum Töten einzusetzen, als Menschen in die Schusslinie zu bringen? Was wäre, wenn wir Roboter nur zur Abschreckung und nicht zur tatsächlichen Gewaltanwendung einsetzen würden?

Die Campaign to Stop Killer Robots ist eine gemeinnützige Organisation, die sich für ein Verbot vollautonomer Waffen einsetzt, die ohne menschliches Zutun über Leben und Tod entscheiden können. „Vollautonome Waffen würden das menschliche Urteilsvermögen vermissen lassen, das notwendig ist, um die Verhältnismäßigkeit eines Angriffs zu beurteilen, Zivilisten von Kombattanten zu unterscheiden und andere Grundprinzipien des Kriegsrechts zu befolgen. Die Geschichte zeigt, dass ihr Einsatz nicht auf bestimmte Umstände beschränkt wäre.“

4. Schurkische KI

Wenn es eine Chance gibt, dass intelligente Maschinen Fehler machen können, dann liegt es im Bereich des Möglichen, dass eine KI schurkisch wird oder unbeabsichtigte Konsequenzen aus ihren Handlungen bei der Verfolgung scheinbar harmloser Ziele zieht. Ein Szenario, in dem eine KI abtrünnig wird, haben wir bereits in Filmen wie The Terminator und in Fernsehsendungen gesehen, in denen ein superintelligenter, zentralisierter KI-Computer ein Bewusstsein für sich selbst entwickelt und beschließt, dass er nicht mehr von Menschen kontrolliert werden will.

Heute sagen Experten, dass die aktuelle KI-Technologie noch nicht in der Lage ist, dieses extrem gefährliche Kunststück des Selbstbewusstseins zu vollbringen; künftige KI-Supercomputer könnten es jedoch schaffen.

Das andere Szenario ist, dass eine KI zum Beispiel den Auftrag erhält, die genetische Struktur eines Virus zu untersuchen, um einen Impfstoff zu entwickeln, der ihn neutralisiert. Nach langwierigen Berechnungen hat die KI eine Lösung formuliert, bei der sie das Virus als Waffe einsetzt, anstatt einen Impfstoff daraus zu machen. Das ist wie das Öffnen einer modernen Büchse der Pandora, und auch hier kommt wieder die Ethik ins Spiel, wo legitime Bedenken angesprochen werden müssen, um ein solches Szenario zu verhindern.

5. Singularität und die Kontrolle über KIs

Werden sich KIs so entwickeln, dass sie den Menschen übertreffen? Was, wenn sie klüger werden als der Mensch und dann versuchen, uns zu kontrollieren? Werden Computer den Menschen überflüssig machen? Der Punkt, an dem das technologische Wachstum die menschliche Intelligenz übertrifft, wird als „technologische Singularität“ bezeichnet. Einige glauben, dass dies das Ende der menschlichen Ära einläuten wird, und dass dies aufgrund des Tempos der technologischen Innovation bereits im Jahr 2030 der Fall sein könnte. KI, die zum Aussterben des Menschen führt – es ist leicht zu verstehen, warum der Fortschritt der KI vielen Menschen Angst einjagt.

6. Wie sollten wir KIs behandeln?

Sollten Robotern Menschenrechte oder die Staatsbürgerschaft gewährt werden? Wenn wir Roboter so weit entwickeln, dass sie in der Lage sind, „zu fühlen“, haben sie dann das Recht auf ähnliche Rechte wie Menschen oder Tiere? Wenn Robotern Rechte zugestanden werden, wie stufen wir dann ihren sozialen Status ein? Dies ist eine der Hauptfragen der „Roboethik“, ein Thema, das erstmals 1942 von Isaac Asimov angesprochen wurde. Im Jahr 2017 erhielt der humanoide Roboter Sophia von Hanson Robotics in Saudi-Arabien die Staatsbürgerschaft. Manche halten dies zwar eher für einen PR-Gag als für eine tatsächliche rechtliche Anerkennung, aber es ist ein Beispiel für die Art von Rechten, die KIs in Zukunft gewährt werden könnten.

7. KI-Voreingenommenheit

KI ist zunehmend Bestandteil von Gesichts- und Spracherkennungssystemen, von denen einige echte geschäftliche Auswirkungen haben und Menschen direkt betreffen. Diese Systeme sind anfällig für Voreingenommenheit und Fehler, die von ihren menschlichen Entwicklern verursacht werden. Auch die Daten, die zum Trainieren dieser KI-Systeme verwendet werden, können fehlerhaft sein. So wiesen beispielsweise die Gesichtserkennungsalgorithmen von Microsoft, IBM und Megvii bei der Erkennung des Geschlechts von Personen Verzerrungen auf. Diese KI-Systeme waren in der Lage, das Geschlecht von weißen Männern genauer zu erkennen als das von Männern mit dunklerer Hautfarbe. Ein weiteres Beispiel dafür, dass KI nicht fair sein kann, ist die Beendigung des KI-Einstellungs- und Rekrutierungsprozesses bei Amazon.com: Der Algorithmus bevorzugte männliche Bewerber gegenüber weiblichen. Das lag daran, dass Amazons System mit Daten trainiert wurde, die über einen Zeitraum von 10 Jahren gesammelt wurden und überwiegend von männlichen Bewerbern stammten.

Kann KI voreingenommen werden? Nun, das ist eine schwierige Frage. Man könnte argumentieren, dass intelligente Maschinen weder einen moralischen Kompass noch eine Reihe von Prinzipien haben wie wir Menschen. Aber selbst unser moralischer Kompass und unsere Prinzipien sind manchmal nicht für die Menschheit als Ganzes von Vorteil. Wie können wir also sicherstellen, dass KI-Agenten nicht die gleichen Fehler haben wie ihre Schöpfer? Wenn KI eine gewisse Voreingenommenheit gegenüber Rasse, Geschlecht, Religion oder ethnischer Zugehörigkeit entwickelt, dann liegt der Fehler hauptsächlich darin, wie sie gelehrt und trainiert wurde. Daher müssen Menschen, die in der KI-Forschung arbeiten, Vorurteile im Hinterkopf behalten, wenn sie entscheiden, welche Daten verwendet werden sollen.

Zusammenfassung

Ja, der Gedanke an immer präsentere KI-Systeme, die die menschliche Intelligenz übertreffen, ist beängstigend. Und die ethischen Fragen, die mit dem Einsatz von KI einhergehen, sind komplex. Der Schlüssel liegt darin, diese Fragen im Hinterkopf zu behalten, um die breiteren gesellschaftlichen Probleme zu analysieren, die im Spiel sind. Die Frage, ob KI gut oder schlecht ist, kann aus vielen verschiedenen Blickwinkeln untersucht werden, ohne dass es eine einzige Theorie oder einen einzigen Rahmen gibt, der der beste ist. Wir müssen weiter lernen und informiert bleiben, um gute Entscheidungen für unsere Zukunft zu treffen.

Aufruf für Autoren

Sie schreiben gerne über technische Themen wie dieses? Dann nehmen Sie an der Kambria Content Challenge teil und teilen Sie Ihre Erkenntnisse und Ihr Fachwissen mit unserer wachsenden Entwicklergemeinschaft. Für die beste Einsendung können Sie über 200 $ erhalten. Für vollständige Informationen über unsere Content Challenge, klicken Sie hier.

Kambria Newsletter abonnieren

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.