Die Geschichte der KI – Als die Maschine denken lernte

Lesedauer 5 Minuten

Sieben Jahrzehnte Künstliche Intelligenz

Es gibt Dinge, die wirken wie eine Überraschung – und sind es gar nicht. Die Künstliche Intelligenz ist eine davon.

Wenn man heute mit Menschen spricht, hört man immer wieder denselben Satz: „Das kam doch so plötzlich.“ ChatGPT, Bildgeneratoren, Sprachassistenten, selbstfahrende Autos – als hätte irgendjemand in einem Hinterzimmer einen Schalter umgelegt, und plötzlich war die Zukunft da.

Die Realität ist unspektakulärer und deshalb vielleicht interessanter.

KI existiert seit über siebzig Jahren. Sie ist nicht plötzlich entstanden. Sie hat sich durchgesetzt. Sie ist diffundiert. Das ist ein fundamentaler Unterschied, der viele Debatten über Blasen, Hypes und Risiken in ein anderes Licht rückt.


Der Anfang: Eine Vision, die zu früh kam

Es begann mit einer Frage, die schon in ihrer Formulierung etwas Philosophisches hatte.

1950 veröffentlichte Alan Turing einen Aufsatz, in dem er fragte: Kann eine Maschine denken? Seine Antwort war kein simples Ja oder Nein. Er schlug stattdessen einen Test vor – einen Imitationstest, bei dem ein Mensch durch Textkonversation nicht mehr unterscheiden kann, ob sein Gesprächspartner Mensch oder Maschine ist.

Man muss sich das Jahr vor Augen halten. 1950. Der Krieg war fünf Jahre vorbei. Computer füllten ganze Räume. Und ein britischer Mathematiker fragte, ob diese Maschinen eines Tages denken könnten.

Sechs Jahre später, 1956, trafen sich Forscher an der Dartmouth-Universität in New Hampshire – einem Ort, der offenbar eine Schwäche für zukunftsverändernde Tagungen hatte, denn zehn Jahre zuvor wurde dort auch Bretton Woods ausgehandelt. In Dartmouth wurde der Begriff „Artificial Intelligence“ geprägt. Und mit ihm ein Versprechen: Man war zuversichtlich, dass menschliche Intelligenz in wenigen Jahrzehnten vollständig in einer Maschine nachgebaut sein würde. Und so beginnt eine Entwicklung einmal mehr mit dem Pioniergeist von Wissenschaftlern.


Der erste Winter: Die Ernüchterung

Was folgte, war Scheitern. Nicht spektakuläres Scheitern – eher das stille, langsame Scheitern, das sich in Förderanträgen zeigt, die nicht bewilligt werden, und in Laboren, die schließen.

Die frühen KI-Systeme funktionierten nach einer einfachen Logik: Regeln. Wenn A, dann B. Wenn Fieber und Husten, dann Grippe. Das klingt vernünftig. Die früheste Anwendung der KI findet sich nämlich im Bereich der Medizin. Das Problem ist jedoch die Komplexität der Welt.

Die Welt lässt sich nicht in Wenn-dann-Regeln fassen. Nicht vollständig. Nicht annähernd vollständig. Systeme, die in engen, wohldefinierten Bereichen brillant wirkten, brachen zusammen, sobald die Realität eine Ausnahme produzierte – was sie nunmal ständig tut.

In den 1970er Jahren wurde die Förderung massiv zurückgefahren. Der erste sogenannte KI-Winter begann. Und er dauerte.

Der entscheidende Punkt ist dieser: Die Idee war nicht falsch. Die Infrastruktur war es. Weder die Rechenleistung noch die verfügbaren Datenmengen reichten auch nur annähernd für das aus, was die Forscher sich vorstellten. Es war, als würde man versuchen, einen Ozean mit einem Eimer zu navigieren – um dann dem Eimer die Schuld geben.


Das zweite Leben: Expertensysteme

In den 1980er Jahren kam der nächste Anlauf, diesmal pragmatischer. Statt allgemeiner Intelligenz setzte man auf Expertensysteme – Programme, die das Wissen eines menschlichen Spezialisten in einem engen Fachgebiet abbilden sollten.

Das funktionierte. Tatsächlich funktionierte es beeindruckend gut. Medizinische Diagnoseprogramme, industrielle Steuerungssysteme, juristische Recherchewerkzeuge – es gab eine echte, praktische Anwendung.

Dann kam das nächste Problem: Pflege. Wissen veraltet. Experten sterben oder wechseln die Meinung. Regelwerke wachsen ins Unüberschaubare. Und jede neue Ausnahme erforderte eine neue Regel. Das war nicht skalierbar. Der zweite KI-Winter folgte leiser als der erste, aber er folgte.


Die stille Revolution: Maschinelles Lernen

Zwischen 1995 und 2010 passierte dann etwas, das kaum jemand bemerkte, der nicht selbst in einem Labor arbeitete.

Forscher verließen die Logik und wandten sich der Statistik zu. Statt Regeln zu formulieren, ließen sie Algorithmen aus Daten lernen. Support Vector Machines. Entscheidungsbäume. Naives Bayes. Die Namen klingen sperrig – es handelt sich um mathematische Werkzeuge, nicht um Philosophie.

1997 schlug ein IBM-Rechner namens Deep Blue den damaligen Schachweltmeister Garri Kasparow. Das war eine Sensation, aber keine, die breite Aufmerksamkeit erzeugte.

In dieser Zeit wurde etwas anderes wichtiger: das Internet. Und damit eine Ressource, die zuvor schlicht nicht existiert hatte – digitale Daten in nie dagewesenen Mengen.


Der Wendepunkt: 2012 und das tiefe Netz

Es gibt Momente in der Geschichte, die sich im Rückblick scharf abzeichnen. Der Sommer 2012 ist so ein Moment.

Bei einem internationalen Wettbewerb zur Bilderkennung präsentierte ein Team um den Forscher Geoffrey Hinton ein neuronales Netz namens AlexNet. Es schlug die Konkurrenz nicht knapp. Es dominierte sie.

Tief gestapelte neuronale Netze – Deep Learning – wurden plötzlich zur Methode der Wahl. Drei Faktoren hatten zusammengefunden, die einzeln nicht gereicht hätten: die ausgereifte Architektur, die Datenmassen des Internets, und Grafikprozessoren, die sich als ideal für die Mathematik neuronaler Netze erwiesen. Diese drei Faktoren trafen aufeinander wie Streichholz, Anzünder und trockenes Holz.


Der Transformer und die Gegenwart

2017 erschien ein Forschungspapier mit dem Titel „Attention Is All You Need“. Es beschrieb eine neue Architektur – den Transformer – die seitdem die Grundlage nahezu aller leistungsfähigen Sprachmodelle ist. GPT-1 kam 2018. Dann GPT-2, GPT-3. Und dann, im November 2022, ChatGPT – und plötzlich war das, was Jahrzehnte in Laboren geschlummert hatte, in jedermanns Hosentasche.


Die KI-Blase – und warum die Frage falsch gestellt ist

Man hört oft: KI ist eine Blase. Man hört genauso oft: KI wird alles verändern. Beides trifft zu und verfehlt trotzdem den Punkt.

Was eine Blase ist: Viele Geschäftsmodelle, die sich „KI-Unternehmen“ nennen, werden scheitern. Viele Investitionen werden sich nicht rentieren. Das ist die normale Dynamik jeder Technologiewelle.

Was keine Blase ist: Die technische Grundlage. Die Infrastruktur. Die tatsächlichen Produktivitätsgewinne in konkreten Anwendungen.

Das passendere Bild ist das Internet um das Jahr 2000. Die Dotcom-Blase platzte spektakulär. Hunderte Unternehmen verschwanden. Milliarden wurden vernichtet. Und trotzdem hat das Internet alles verändert. Die Infrastruktur blieb. Die Möglichkeiten blieben. Nur der Hype ging. Die Technik wird domestiziert und diffundiert in die einzelnen System der Gesellschaft.


Was wirklich neu ist?

Wenn man siebzig Jahre KI-Geschichte überblickt, fällt etwas auf: Die Idee war immer da. Die Vision war immer da. Was fehlte, war die Welt, die diese Idee tragen konnte.

Diese Welt existiert jetzt. Was wir erleben, ist nicht die Geburt einer neuen Technologie. Wir erleben ihre Industrialisierung.

Intelligenz wird zum skalierbaren Industriegut. Was das bedeutet – gesellschaftlich, wirtschaftlich, politisch, philosophisch – das ist die Frage, mit der wir uns gerade erst zu beschäftigen beginnen.

Die Überraschung war keine Überraschung. Sie war siebzig Jahre im Werden.


Ewig unerreicht – die Natur

Das menschliche Gehirn ist eines der effizientesten und leistungsfähigsten Systeme, die wir kennen. Mit einem Energieverbrauch von nur etwa 20 Watt – ungefähr so viel wie eine kleine Glühbirne – steuert es Wahrnehmung, Bewegung, Sprache, Emotionen und komplexes Denken gleichzeitig. Im Gegensatz dazu benötigen moderne KI-Systeme und Rechenzentren enorme Energiemengen und spezialisierte Hardware, um einzelne Aufgaben zu erfüllen.

Das Gehirn arbeitet mit rund 86 Milliarden Neuronen, die parallel, flexibel und selbstorganisierend miteinander verbunden sind. Es lernt kontinuierlich aus Erfahrung und passt sich ständig an neue Situationen an. Besonders bemerkenswert ist, dass Menschen oft schon nach wenigen Beispielen neue Muster erkennen oder Fähigkeiten entwickeln. Während künstliche Systeme dafür große Datenmengen und intensive Trainingsphasen benötigen, lernt das Gehirn schnell, kontextbezogen und effizient. Seine Verarbeitung ist nicht starr digital, sondern dynamisch, ereignisgesteuert und eng mit Körper und Umwelt verbunden.

Diese Kombination aus Energieeffizienz, Anpassungsfähigkeit und Vielseitigkeit ist das Ergebnis von Millionen Jahren evolutionärer Optimierung. Das menschliche Gehirn ist damit ein hochkomprimiertes Universal­system, das allgemeine Intelligenz mit minimalem Energieeinsatz ermöglicht. Jedoch bleibt immer ein blinder Fleck und die Wahrheit entzieht sich auf ewig der Endgültigkeit.

Der Mathematiker Kurt Gödel bewies 1931, dass in jedem hinreichend komplexen formalen System wahre Aussagen existieren, die sich innerhalb dieses Systems nicht beweisen lassen. Selbst die Mathematik – die exakteste Sprache, die der Mensch kennt – stößt an eine unüberwindbare Grenze der Beweisbarkeit. Was für Zahlen gilt, gilt erst recht für Bewusstsein, Wahrheit und Erkenntnis: Kein System kann sich selbst vollständig erfassen. Vielleicht ist der blinde Fleck kein Fehler der Evolution – sondern ihr ehrlichstes Ergebnis.

https://mythosundmorgen.de/ki-halluzinationen-erklart

Schreibe einen Kommentar