Geschichte der KI

Künstliche Intelligenz (KI) ist eine etwa 60 Jahre junge Disziplin, die eine Reihe von Wissenschaften, Theorien und Techniken (u. a. mathematische Logik, Statistik, Wahrscheinlichkeitsrechnung, Computational Neurobiology, Informatik) umfasst, die darauf abzielen, die kognitiven Fähigkeiten eines Menschen zu imitieren. Sie hat dazu geführt, dass Computer immer komplexere Aufgaben übernehmen, die zuvor nur an Menschen delegiert werden konnten. Diese Automatisierung ist jedoch nach wie vor weit von menschlicher Intelligenz im engeren Sinne entfernt, was die Bezeichnung für einige Experten kritikwürdig macht. Das Endstadium ihrer Forschung ist mit den heutigen Errungenschaften absolut nicht vergleichbar. Die KI, die sich bislang nur in der Science-Fiction materialisiert hat, würde Fortschritte in der Grundlagenforschung (und nicht nur Leistungsverbesserungen) erfordern, um in der Lage zu sein, die Welt als Ganzes zu modellieren.


1940-1960: Entstehung der KI im Gefolge der Kybernetik

Die Zeit zwischen 1940 und 1960 war stark geprägt von der Kombination aus technologischen Entwicklungen (die durch den Zweiten Weltkrieg beschleunigt wurden) und dem Wunsch zu verstehen, wie man die Funktionsweise von Maschinen und organischen Wesen zusammenbringen kann. So war es für Norbert Wiener, den Pionier der Kybernetik, das Ziel, mathematische Theorie, Elektronik und Automatisierung als "ganze Theorie der Steuerung und Kommunikation, sowohl im Tier als auch in der Maschine" zu vereinen. Kurz zuvor war bereits 1943 von Warren McCulloch und Walter Pitts ein erstes mathematisches und computergestütztes Modell des biologischen Neurons entwickelt worden.

1980-1990: Expertensysteme

1968 drehte Stanley Kubrick den Film "2001 Odyssee im Weltraum", in dem ein Computer - HAL 9000 (der sich nur um einen Buchstaben von den IBM-Computern unterscheidet) die ganze Fülle der ethischen Fragen zusammenfasst, die durch die KI aufgeworfen werden: Wird KI, wenn sie ein hohes Mass an Komplexität erreicht hat, ein Gut für die Menschheit darstellen oder eine Gefahr? Die Auswirkungen des Films sind natürlich nicht wissenschaftlich, aber er trägt dazu bei, das Thema populär zu machen, ebenso wie der Autor von der Science-Fiction-Autor Philip K. Dick wird sich immer wieder mit der Frage beschäftigen, ob Maschinen eines Tages Emotionen empfinden werden.

Seit 2010: Neuer Aufschwung durch Massendaten und neue Rechenleistung

Unter den Techniken des maschinellen Lernens (Machine Learning) scheint die des tiefen Lernens (Deep Learning) für eine Reihe von Anwendungen (u. a. Sprach- und Bilderkennung) am vielversprechendsten zu sein. Bereits 2003 beschlossen Geoffrey Hinton von der Universität Toronto, Yoshua Bengio von der Universität Montreal und Yann LeCun von der Universität New York, ein Forschungsprogramm zu starten, um neuronale Netze wiederzubeleben. Die Experimente, die gleichzeitig bei Microsoft, Google und IBM mithilfe von Hintons Labor in Toronto durchgeführt wurden, zeigten, dass diese Art des Lernens die Fehlerquote bei der Spracherkennung um die Hälfte senken konnte. Ähnliche Ergebnisse erzielte Hintons Team auch bei der Bilderkennung. Über Nacht wandte sich eine grosse Mehrheit der Forschungsteams dieser Technologie zu, die unbestreitbare Vorteile brachte. Diese Art des Lernens hat auch bei der Texterkennung zu erheblichen Fortschritten geführt, aber laut Experten wie Yann LeCun ist es noch ein weiter Weg bis zur Produktion von Systemen, die Texte verstehen können. Konversationsagenten sind ein gutes Beispiel für diese Herausforderung: Unsere Smartphones können bereits eine Anweisung wiedergeben, sind aber nicht in der Lage, sie vollständig zu kontextualisieren und unsere Absichten zu analysieren.