In der bahnbrechenden Arbeit über KI mit dem Titel Computing Machinery and Intelligence stellte Alan Turing die berühmte Frage: „Können Maschinen denken?“ –
70 Jahre später lautet die Antwort immer noch „nein“, da eine Maschine den Turing-Test nicht bestanden hat.
Turing stellt klar, dass er an Maschinen interessiert ist, die „dazu bestimmt sind, alle Operationen auszuführen, die von einem menschlichen Computer ausgeführt werden könnten“. Mit anderen Worten, er interessiert sich für komplexe digitale Maschinen.
Da das Erreichen einer denkenden digitalen Maschine eine Frage der Evolution der Maschinen ist, ist es sinnvoll, am Anfang der Maschinengeschichte anzusetzen.
Eine Maschine ist ein Gerät, das Arbeit verrichtet. In der Technik bedeutet Arbeit die Übertragung von Energie von einem Objekt auf ein anderes. Maschinen ermöglichen es uns, mehr Kraft anzuwenden und/oder dies effizienter zu tun, was dazu führt, dass mehr Arbeit geleistet wird.
Moderne Maschinen – wie der oben gezeigte Roboter Atlas von Boston Dynamics – verwenden Hunderte von Teilen, darunter hydraulische Gelenke, Kolben, Zahnräder, Ventile usw., um komplexe Aufgaben zu bewältigen, wie z. B. eine selbstkorrigierende Stabilisierung oder sogar Rückwärtssaltos.
Einfache Maschinen
Allerdings passen auch „einfache Maschinen“ auf unsere frühere Definition, darunter Räder, Hebel, Riemenscheiben, schräge Ebenen, Keile und Schrauben. In der Tat bestehen alle mechanischen Maschinen aus einer Kombination dieser sechs einfachen Maschinen.
Atlas ist nicht nur eine mechanische, sondern auch eine digitale Maschine.
Einfache mechanische Maschinen sind Millionen von Jahren alt. Zum Beispiel sind „Steinwerkzeuge so alt wie die menschliche Gesellschaft“, und Archäologen haben Steinwerkzeuge gefunden, „die 1,5 bis 2 Millionen Jahre alt sind.“
Komplexe Maschinen
Kombinationen von einfachen Maschinen könnten verwendet werden, um alles von einer Schubkarre über ein Fahrrad bis hin zu einem mechanischen Roboter herzustellen.
Tatsächlich reichen Aufzeichnungen über mechanische Roboter bis vor über 3.000 Jahren zurück.
Der daoistische Text Lieh-tzu, geschrieben im 5. Jahrhundert v. Chr., enthält einen Bericht über ein viel früheres Treffen zwischen König Mu aus der Zhou-Dynastie (1023-957 v. Chr.) und einem Ingenieur namens Yen Shi. Yen Shi präsentierte dem König einen lebensgroßen, menschenförmigen mechanischen Automaten:
„Der König starrte die Figur mit Erstaunen an. Sie ging mit schnellen Schritten und bewegte den Kopf auf und ab, so dass jeder sie für einen lebenden Menschen gehalten hätte. Der Kunsthandwerker berührte ihr Kinn, und sie begann zu singen, ganz im Einklang. Er berührte seine Hand, und er begann zu posieren, wobei er den Takt perfekt einhielt… Als sich die Vorstellung dem Ende zuneigte, zwinkerte der Roboter mit den Augen und machte den anwesenden Damen Avancen, woraufhin der König in Rage geriet und Yen Shi auf der Stelle hätte hinrichten lassen, wenn dieser nicht in Todesangst den Roboter sofort in seine Einzelteile zerlegt hätte, um ihm zu zeigen, was er wirklich war. Und tatsächlich stellte sich heraus, dass er nur eine Konstruktion aus Leder, Holz, Leim und Lack war…“
Der König fragte: „Kann es sein, dass die Fähigkeiten des Menschen denen des großen Schöpfers der Natur ebenbürtig sind?“
Mit anderen Worten: Turings Frage, ob Maschinen den Menschen imitieren können, ist eigentlich Tausende von Jahren alt.
Zur gleichen Zeit schufen griechische Wissenschaftler eine breite Palette von Automaten. Archytas (ca. 428-347 v. Chr.) schuf einen mechanischen Vogel, der etwa 200 Meter weit fliegen konnte und als künstliches, dampfgetriebenes Fluggerät in Form eines Vogels beschrieben wird.
„Archytas fertigte ein hölzernes Modell einer Taube an, das mit so viel mechanischem Einfallsreichtum und Kunstfertigkeit hergestellt wurde, dass es flog.“
Einige moderne Historiker glauben, dass es durch die Aufhängung an Drähten unterstützt wurde, aber in jedem Fall war es ein klarer Versuch, eine Maschine zu schaffen.
Ein anderer griechischer Wissenschaftler, Dädalus, schuf Statuen, die sich bewegten:
„Dädalus soll Statuen geschaffen haben, die so lebensecht waren, dass sie sich von selbst bewegen konnten.“
Die „erste Kuckucksuhr“ wurde in dem Buch The Rise and Fall of Alexandria beschrieben: Birthplace of the Modern World (Seite 132) beschrieben:
„Bald waren Ctesibius‘ Uhren voller Hähne und Ventile, die eine Vielzahl von Vorrichtungen steuerten, von Glocken über Puppen bis hin zu mechanischen Tauben, die sangen, um den Ablauf jeder Stunde zu markieren – die allererste Kuckucksuhr!“
Im Laufe der Jahrhunderte wurden immer komplexere Vorrichtungen verwendet, um Automaten zu schaffen, wie z. B. windbetriebene Bewegungsmaschinen.
Programmierbare komplexe mechanische Maschinen
Es dauerte bis zum 9. Jahrhundert n. Chr., bis die erste programmierbare komplexe mechanische Maschine aufgezeichnet wurde:
„Der früheste bekannte Entwurf einer programmierbaren Maschine ist der automatische Flötenspieler, der im 9. Jahrhundert von den Brüdern Musa in Bagdad beschrieben wurde.“
Dies wurde auch als „das Instrument, das sich selbst spielt“ beschrieben. Ein Buch über diese Geräte wird in der Vatikanischen Bibliothek aufbewahrt.
Mechanische Rechenmaschinen
Ein weiterer Schritt auf dem langen Weg zur modernen KI war die Entwicklung mechanischer Rechenmaschinen.
Die erste mechanische Rechenmaschine wurde von Wilhelm Schickard in der ersten Hälfte des 17. Jahrhunderts gebaut und ermöglichte Addition und Multiplikation.
Die nächste mechanische Rechenmaschine, gebaut von Blaise Pascal, konnte auch Subtraktion.
Diese Maschinen inspirierten Denker wie Gottfried Wilhelm Leibniz zu folgenden Überlegungen:
„Wenn jeder Bereich menschlicher Erfahrung durch mathematisches Denken verstanden werden kann und wenn das Denken eine Form der Berechnung ist und die Berechnung mechanisiert werden kann, dann können im Prinzip alle Fragen über die Wirklichkeit durch eine von einer Maschine ausgeführte Berechnung beantwortet werden.“
In vielerlei Hinsicht ähnelt dies unserem heutigen Konzept der Künstlichen Allgemeinen Intelligenz.
Leibniz‘ Idee war, dass eine characteristica universalis oder ein universelles logisches Programm dann alle Fragen über die Wirklichkeit beantworten könnte.
Programmierbare Rechenmaschinen
Im Jahr 1833 kombinierte Charles Babbage die Innovation der programmierbaren Maschinen aus dem 9. Jahrhundert mit der Innovation der Rechenmaschinen aus dem 17. Jahrhundert, um eine Analytische Maschine zu konzipieren: Eine programmierbare Rechenmaschine.
Babbage hat es nie geschafft, eine vollständige Maschine zu bauen, aber seine „Lochkarten-Technik“ wurde später in den ersten digitalen Maschinen verwendet.
Digitale Maschinen (Computer)
Der Übergang von mechanischen zu digitalen Computern war ein gewaltiger Sprung, um dorthin zu gelangen, wo wir heute sind.
In den späten 30er bis 40er Jahren tauchten mehrere Digitalcomputer auf, die um den Titel „erster Digitalcomputer“ konkurrierten.
Der ENIAC gilt weithin als der erste Digitalcomputer, der 1946 fertiggestellt wurde, da er der erste voll funktionsfähige war.
Weitere Digitalcomputer waren der Colossus im Jahr 1943, der britischen Codeknackern half, verschlüsselte deutsche Nachrichten zu lesen, und der ABC-Computer im Jahr 1942.
Von hier an beschleunigte sich der Fortschritt rapide, und Fortschritte wie die Speicherung von Programmen im Speicher, RAM, Echtzeitgrafik und Transistoren wurden in relativ rascher Folge eingeführt.
Maschinelles Lernen
Schließlich können wir mit dem Aufkommen komplexer digitaler Maschinen das Thema des maschinellen Lernens ansprechen.
Wie eingangs erwähnt, veranlasste der Aufstieg von Maschinen Alan Turing 1950 zu der Frage: „Können Maschinen denken?“ Fünf Jahre später veröffentlichte er in Dartmouth eine bahnbrechende Arbeit über künstliche Intelligenz, und die Grundprinzipien des Fachgebiets sind seither ähnlich geblieben.
1955 schrieb M.L. Minsky:
Eine „Maschine kann durch einen ‚Versuch und Irrtum‘-Prozess ‚trainiert‘ werden, um eine aus einer Reihe von Eingabe-Ausgabe-Funktionen zu erwerben. Eine solche Maschine kann, wenn sie in einer geeigneten Umgebung platziert wird und ein Kriterium für ‚Erfolg‘ oder ‚Misserfolg‘ erhält, darauf trainiert werden, ein ‚zielgerichtetes‘ Verhalten an den Tag zu legen.“
Maschinelle Lernalgorithmen bauen mit anderen Worten mathematische Modelle auf „Trainingsdaten“ auf, um Entscheidungen zu treffen, ohne explizit darauf programmiert zu sein, diese Entscheidungen zu treffen.
Das ist der Hauptunterschied zwischen einer Rechenmaschine und maschinellem Lernen (oder KI): Ein Taschenrechner oder jede Form von Automaten hat eine vorher festgelegte Ausgabe. KI trifft probabilistische Entscheidungen on-the-fly.
Eine mechanische Maschine hat auch viel strengere physikalische Grenzen, was die Anzahl der Maschinenkomponenten (z.B. Riemenscheiben, Hebel, Zahnräder) angeht, die in einen Apparat passen, während die CPU einer modernen digitalen Maschine Milliarden von Transistoren aufnehmen kann.
Der Begriff „maschinelles Lernen“ wurde 1952 von Arthur Samuel geprägt, nachdem er ein Computerprogramm für das Damespiel durch Auswendiglernen entwickelt hatte.
1957 schuf Frank Rosenblatt das Mark I Perceptron – einen überwachten Lernalgorithmus mit binären Klassifikatoren – zum Zweck der Bilderkennung.
Nachdem er seine Arbeit 1958 der US-Marine vorgestellt hatte, berichtete die New York Times:
Das Perzeptron ist „der Embryo eines elektronischen Computers, von dem man erwartet, dass er gehen, sprechen, sehen, schreiben, sich reproduzieren und sich seiner Existenz bewusst sein wird.“
Bereits 1958 sahen Forscher den Tag der empfindungsfähigen KI voraus.
Zu den späteren Errungenschaften gehörten neuronale Feedforward-Netzwerke (wie ein Perceptron, aber mit mehreren Schichten), der Nearest Neighbour-Algorithmus im Jahr 67, Backpropagation auf Computern in den 70er Jahren (die jetzt zum Trainieren tiefer neuronaler Netzwerke verwendet wird), Boosting-Algorithmen in den frühen 90er Jahren und LSTMs im Jahr 97.
Verbesserungen aufgrund von Daten und Rechenleistung
Im jüngsten KI-Kurs des führenden KI-Forschers Andrew Ng stellt er fest, dass es bei der allgemeinen künstlichen Intelligenz „so gut wie keine Fortschritte“ gegeben hat, dass aber bei der „engen Intelligenz“ unglaubliche Fortschritte erzielt wurden – bei Input-Output-Funktionen, „die eine Sache erledigen, wie etwa ein intelligenter Lautsprecher oder ein selbstfahrendes Auto.“
Auf hohem Niveau geht es bei der KI immer noch darum, „eine Funktion zu lernen, die von x auf y abbildet.“
Die unglaublichen Fortschritte, die wir in letzter Zeit gesehen haben, sind hauptsächlich auf eine Explosion von Daten und Rechenleistung zurückzuführen, zusammen mit besseren (qualitativ hochwertigeren) Daten und mehr KI-Ingenieuren.
Mehr Daten und Rechenleistung erhöhen natürlich die Genauigkeit der meisten KI-Modelle, insbesondere beim Deep Learning.
Die Demokratisierung der KI
Neben der Entwicklung der KI-Architekturen, der Rechenleistung und der Daten hat die KI in letzter Zeit dank der Verbreitung von leichter zugänglichen KI-Tools auch in der Industrie einen festen Platz eingenommen.
Das Aufkommen von Tools, die Technologien leichter zugänglich machen, hat eine lange Geschichte. So demokratisierte Gutenbergs Druckerpresse im 15. Jahrhundert das Wissen.
Im Internetzeitalter haben „no-code“-Tools wie WordPress und Wix die Erstellung von Websites demokratisiert.
Nach den Vorschlägen zur Künstlichen Intelligenz in den 50er Jahren war die Künstliche Intelligenz jahrzehntelang weitgehend auf den akademischen Bereich beschränkt, ohne dass es viel praktische Anwendung gab.
Tools wie TensorFlow und Keras machten es für mehr Unternehmen möglich, KI zu implementieren, obwohl es sich dabei immer noch um technologisch komplizierte Tools handelt, die den Einsatz hochbezahlter Ingenieure für maschinelles Lernen erfordern.
Zu dieser Komplexität kommt noch hinzu, dass der Mangel an Fachleuten für Datenwissenschaften zu himmelhohen Gehältern für diejenigen führt, die KI-Systeme entwickeln können. Infolgedessen dominieren große Unternehmen wie die FAANGs einen Großteil der KI.
Das Aufkommen von No-Code-KI-Tools wie Apteo reduziert die Vorlaufkosten und macht gleichzeitig technische Expertise überflüssig, was eine echte Demokratisierung der KI ermöglicht.
No-Code-KI
No-Code-KI-Tools sind der logische nächste Schritt auf dem Weg zur Demokratisierung der KI.
Der frühe Mensch hat schon vor 2 Millionen Jahren Steinschneidewerkzeuge hergestellt, um mehr Arbeit als mit den Händen erledigen zu können.
Heute macht uns KI effizienter und kann uns Arbeit abnehmen, während KI ohne Code diese Vorteile für jeden zugänglich macht.
Mit dem Aufkommen von KI-Tools ohne Code bewegen wir uns auf eine Ära der zugänglichen KI zu.