“Künstliche Intelligenz” ist derzeit das heißeste Schlagwort in Tech. Und das aus gutem Grund - nach Jahrzehnten der Forschung und Entwicklung hat sich in den letzten Jahren eine Reihe von Techniken ergeben, die bisher der Science-Fiction vorbehalten waren.

KI-Techniken sind bereits ein wichtiger Teil unseres Lebens: KI bestimmt unsere Suchergebnisse, übersetzt unsere Stimmen in sinnvolle Anweisungen für Computer und kann sogar helfen, unsere Gurken zu sortieren (dazu später mehr). In den nächsten Jahren werden wir KI verwenden, um unsere Autos zu fahren, unsere Kundendienstanfragen zu beantworten und unzählige andere Dinge.

Aber wie sind wir hierher gekommen? Woher kommt diese leistungsstarke neue Technologie? Hier sind zehn der großen Meilensteine, die uns zu diesen aufregenden Zeiten geführt haben.

Die "große Idee" bekommen

Das Konzept der KI erschien nicht plötzlich - es ist das Thema einer tiefen philosophischen Debatte, die bis heute tobt: Kann eine Maschine wirklich wie ein Mensch denken? Kann eine Maschine Sein Mensch? Einer der ersten, der darüber nachdachte, war René Descartes aus dem Jahr 1637 in einem Buch Diskurs über die Methode. Zu der Zeit, als selbst ein Amstrad Em @ iler unglaublich futuristisch zu sein schien, fasste Descartes erstaunlicherweise einige der wichtigsten Fragen und Herausforderungen zusammen, die Technologen meistern müssten:

“Wenn es Maschinen gäbe, die unserem Körper ähneln und unsere Handlungen für alle praktischen Zwecke so genau wie möglich nachahmen, sollten wir immer noch zwei sehr sichere Mittel haben, um zu erkennen, dass sie keine echten Männer sind.”

Ein Porträt von René Descartes

Er erklärt weiter, dass Maschinen seiner Meinung nach niemals Wörter oder Wörter verwenden könnten “Zeichen zusammenstellen” zu “Erklären Sie unsere Gedanken anderen”, und das auch, wenn wir uns eine solche Maschine vorstellen könnten, “Es ist nicht vorstellbar, dass eine solche Maschine unterschiedliche Wortanordnungen erzeugt, um auf das, was in ihrer Gegenwart gesagt wird, eine angemessen sinnvolle Antwort zu geben, wie es der langweiligste Mensch tun kann.”

Anschließend beschreibt er die große Herausforderung von heute: Erstellen einer verallgemeinerten KI anstatt einer eng begrenzten Fokussierung - und wie die Einschränkungen der aktuellen KI zeigen würden, dass die Maschine definitiv kein Mensch ist:

“Obwohl einige Maschinen einige Dinge genauso gut tun können wie wir, oder sogar besser, würden sie bei anderen unvermeidlich versagen, was zeigen würde, dass sie nicht aus Verstand, sondern nur aus der Disposition ihrer Organe handeln.”

Nun, dank Descartes, haben wir die Herausforderung, wenn es um AI geht.

Das Imitationsspiel

Der zweite wichtige philosophische Maßstab war der Computerpionier Alan Turing. 1950 beschrieb er erstmals, was als Turing-Test bekannt wurde und worauf er sich berief “Das Imitationsspiel” - Ein Test zum Messen, wann wir endlich sagen können, dass Maschinen intelligent sein können.

Sein Test war einfach: Wenn ein Richter nicht zwischen einem Menschen und einer Maschine unterscheiden kann (beispielsweise durch eine Nur-Text-Interaktion mit beiden), kann die Maschine den Richter dazu bringen, zu glauben, dass er der Mensch ist, der sie ist?

Alan Turing, britischer Computerpionier

Zu dieser Zeit amüsant machte Turing eine mutige Vorhersage über die Zukunft des Computers - und er rechnete damit, dass sein Test Ende des 20. Jahrhunderts bestanden sein wird. Er sagte:

“Ich glaube, dass es in etwa fünfzig Jahren möglich sein wird, Computer mit einer Speicherkapazität von etwa [1 GB] so zu programmieren, dass sie das Nachahmungsspiel so gut spielen, dass ein durchschnittlicher Interrogator nicht mehr als 70 Prozent Chance hat Die richtige Identifikation nach fünf Minuten Befragung… Ich glaube, dass sich Ende des Jahrhunderts der Gebrauch von Wörtern und allgemein gebildeten Meinungen so sehr verändert haben wird, dass man von Maschinendenken sprechen kann, ohne zu erwarten, dass widersprochen wird.”

Leider ist seine Vorhersage ein wenig verfrüht, denn während wir jetzt eine wirklich beeindruckende KI sehen, war die Technologie im Jahr 2000 viel primitiver. Aber hey, zumindest wäre er von der Festplattenkapazität beeindruckt gewesen, die um die Jahrhundertwende etwa 10 GB betrug.

Das erste neuronale Netzwerk

“Neurales Netzwerk” ist der phantastische Name, den Wissenschaftler dem Versuch und Irrtum geben, dem Schlüsselbegriff, der die moderne KI aufhebt. Wenn es um das Training einer KI geht, ist der beste Weg, das System zu erraten, Feedback zu erhalten und erneut zu erraten, wobei die Wahrscheinlichkeiten ständig verschoben werden, dass die richtige Antwort gefunden wird.

Ein von einem Google Neural Network erstelltes Bild.

Das Erstaunliche daran ist, dass das erste neuronale Netzwerk bereits 1951 gegründet wurde. Called “SNARC” - Der Stochastic Neural Analog Reinforcement Computer - er wurde von Marvin Minsky und Dean Edmonds entwickelt und bestand nicht aus Mikrochips und Transistoren, sondern aus Vakuumröhren, Motoren und Kupplungen.

Die Herausforderung für diese Maschine? Helfen Sie einer virtuellen Ratte, ein Labyrinth zu lösen. Das System sendet Anweisungen zum Navigieren im Labyrinth und jedes Mal, wenn die Auswirkungen seiner Aktionen wieder in das System eingespeist werden - die Vakuumröhren, in denen die Ergebnisse gespeichert werden. Dies bedeutete, dass die Maschine in der Lage war, die Wahrscheinlichkeiten zu lernen und zu verschieben, wodurch sich die Wahrscheinlichkeit erhöhte, dass sie durch das Labyrinth gelangten.

Es ist im Wesentlichen eine sehr, sehr einfache Version desselben Prozesses, den Google heute verwendet, um Objekte in Fotos zu identifizieren.

Das erste selbstfahrende Auto

Wenn wir an selbstfahrende Autos denken, denken wir an so etwas wie Googles Projekt Waymo - aber 1995 gelang es Mercedes-Benz erstaunlicherweise, eine modifizierte S-Klasse weitgehend autonom von München nach Kopenhagen zu fahren.

Eine neue Mercedes S-Klasse

Laut AutoEvolution wurde die 1043 Meilen lange Reise durch das Einsetzen eines Supercomputers in den Kofferraum unternommen - das Auto enthielt 60 Transputerchips, die zu der Zeit beim Parallel-Computing Stand der Technik waren, was bedeutete, dass sie viel verarbeiten konnte Fahrdaten schnell - ein entscheidender Faktor, um selbstfahrende Autos ausreichend reaktionsfähig zu machen.

Anscheinend erreichte das Auto Geschwindigkeiten von bis zu 115 Meilen pro Stunde und war tatsächlich den heutigen autonomen Autos ziemlich ähnlich, da es in der Lage war, Verkehrszeichen zu überholen und zu lesen. Aber wenn uns eine Reise angeboten wurde? Ähm ... wir darauf bestehen Du gehst zuerst.

Umstellung auf Statistiken

Obwohl neuronale Netzwerke schon seit einiger Zeit als Konzept existierten (siehe oben!), War dies erst in den späten 80er Jahren der Fall, als sich die KI - Forscher von a “Regeln basierend” Annäherung an einen statt auf Statistiken - oder maschinellem Lernen. Das bedeutet, anstatt zu versuchen, Systeme zu bauen, die Intelligenz imitieren, indem versucht wird, die Regeln, nach denen Menschen arbeiten, zu ermitteln, stattdessen ein Versuch und Irrtum zu wählen und die Wahrscheinlichkeiten basierend auf Feedback anzupassen, ist eine viel bessere Methode, um Maschinen das Denken zu vermitteln. Dies ist eine große Sache - denn dieses Konzept stützt die erstaunlichen Dinge, die KI heute leisten kann.

Gil Press von Forbes argumentiert, dass diese Umstellung 1988 angekündigt wurde, als das TJ Watson Research Center von IBM eine Veröffentlichung mit dem Titel "" veröffentlichte “Ein statistischer Ansatz für die Übersetzung von Sprachen”, Dabei geht es insbesondere um maschinelles Lernen, um genau das zu tun, was Google Translate heute funktioniert.

IBM hat offenbar 2,2 Millionen Paar von Sätzen in Französisch und Englisch für die Schulung des Systems eingesetzt - und die Sätze wurden alle aus den Transkripten des kanadischen Parlaments entnommen, das seine Unterlagen in beiden Sprachen veröffentlicht - was sich zwar viel anhört, aber nicht verglichen wird zu Google haben das gesamte Internet zur Verfügung - was erklärt, warum Google Translate heute so unheimlich gut ist.

Deep Blue schlägt Garry Kasparov

Trotz der Verlagerung auf statistische Modelle wurden noch regelbasierte Modelle verwendet - und 1997 war IBM für das vielleicht berühmteste Schachspiel aller Zeiten verantwortlich, da es sich bei Deep Blue um den Weltmeister von Schach, Garry Kasparov, handelt, der zeigt, wie mächtig das ist Maschinen können sein.

Der Kampf war eigentlich ein Rematch: 1996 gewann Kasparov Deep Blue mit 4: 2. Erst 1997 hatten die Maschinen die Oberhand gewonnen, zwei von sechs Spielen konnten gewonnen werden, und Kasparov kämpfte drei weitere Unentschieden.

Die Intelligenz von Deep Blue war bis zu einem gewissen Grad illusorisch - IBM selbst geht davon aus, dass seine Maschine keine künstliche Intelligenz verwendet. Stattdessen verwendet Deep Blue eine Kombination aus Brute-Force-Verarbeitung. Dabei werden Tausende von möglichen Bewegungen pro Sekunde verarbeitet. IBM fütterte das System mit Daten zu Tausenden von früheren Spielen, und jedes Mal, wenn sich das Board mit jedem Film wechselte, lernte Deep Blue nichts Neues, sondern schaute stattdessen nach, wie frühere Großmeister in denselben Situationen reagierten. “Er spielt die Geister der Großmeister der Vergangenheit,” wie IBM sagt.

Ob dies nun wirklich als KI zählt oder nicht, klar ist jedoch, dass dies definitiv ein bedeutender Meilenstein war und der nicht nur die rechnerischen Fähigkeiten von Computern, sondern auch das gesamte Feld auf sich aufmerksam gemacht hat. Seit dem Aufeinandertreffen mit Kasparov ist das Bestreiten von menschlichen Spielern bei Spielen zu einem wichtigen populistischen Weg geworden, um die Intelligenz von Maschinen zu bewerten - wie wir 2011 erneut sahen, als das Watson-System von IBM zwei Spiele der Gameshow mühelos übertrumpfte Gefahr's beste Spieler.

Siri nagelt die Sprache

Die Verarbeitung natürlicher Sprache ist seit langem ein heiliger Gral künstlicher Intelligenz - und entscheidend, wenn wir jemals eine Welt haben werden, in der humanoide Roboter existieren oder in der wir mit unseren Geräten Aufträge wie in brüllen können Star Trek.

Deshalb war Siri, das mit den oben genannten statistischen Methoden erstellt wurde, so beeindruckend. Es wurde von SRI International erstellt und sogar als separate App im iOS App Store eingeführt. Es wurde schnell von Apple selbst erworben und tief in iOS integriert: Heute ist es eines der profiliertesten Früchte des maschinellen Lernens Entsprechende Produkte von Google (dem Assistenten), Microsoft (Cortana) und natürlich Alexa von Amazon haben die Art und Weise, wie wir mit unseren Geräten interagieren, auf eine Weise verändert, die nur wenige Jahre zuvor unmöglich erschienen wäre.

Heute halten wir es für selbstverständlich - aber Sie müssen nur jeden fragen, der vor 2010 versucht hat, eine Voice-to-Text-Anwendung zu verwenden, um zu sehen, wie weit wir gekommen sind.

Die ImageNet-Herausforderung

Wie die Spracherkennung ist auch die Bilderkennung eine weitere große Herausforderung, die KI zu meistern hilft. Im Jahr 2015 kamen die Forscher zum ersten Mal zu dem Schluss, dass Maschinen - in diesem Fall zwei konkurrierende Systeme von Google und Microsoft - Objekte in Bildern besser identifizieren können als Menschen in über 1000 Kategorien.

Diese “tiefes Lernen” Die Systeme konnten die ImageNet-Herausforderung meistern - denken Sie an etwas wie den Turing-Test, aber an die Bilderkennung - und sie werden von grundlegender Bedeutung sein, wenn die Bilderkennung jemals über die menschlichen Fähigkeiten hinausgeht.

Anwendungen für die Bilderkennung sind natürlich zahlreich - aber ein interessantes Beispiel, das Google bei der Bewerbung seiner TensorFlow-Plattform für maschinelles Lernen gerne rühmt, ist das Sortieren von Gurken: Ein Landwirt muss nicht mithilfe von Computer Vision entscheiden, ob Gemüse Gemüse ist sind bereit für den Esstisch - die Maschinen können automatisch entscheiden, nachdem sie mit früheren Daten trainiert wurden.

GPUs machen KI wirtschaftlich

Einer der Hauptgründe, warum KI jetzt so eine große Sache ist, ist, dass die Kosten für die Verarbeitung so vieler Daten erst in den letzten Jahren erschwinglich geworden sind.

Laut Fortune erkannten die Forscher erst in den späten 2000er Jahren, dass grafische Verarbeitungseinheiten (GPUs), die für 3D-Grafik und -Spiele entwickelt wurden, bei der Tiefenlernberechnung um das 20- bis 50-fache besser waren als bei herkömmlichen CPUs. Und als die Menschen dies erkannt hatten, stieg die verfügbare Rechenleistung enorm an und ermöglichte den Cloud-KI-Plattformen, mit denen unzählige KI-Anwendungen heute betrieben werden.

Danke also, Gamer. Ihre Eltern und Ihre Ehepartner schätzen es vielleicht nicht, dass Sie so viel Zeit damit verbringen, Videospiele zu spielen.

AlphaGo und AlphaGoZero erobern alles

Im März 2016 wurde ein weiterer Meilenstein für die KI erreicht, als Googles AlphaGo-Software Lee Sedol, einen hochrangigen Spieler des Brettspiels Go, im Echo von Garry Kasparovs historischem Spiel besiegen konnte.

Was es bedeutsam machte, war nicht nur, dass Go ein mathematisch komplexeres Spiel als Schach ist, sondern dass es mit einer Kombination von menschlichen und AI-Gegnern trainiert wurde. Google gewann vier von fünf Spielen, indem es angeblich 1920 CPUs und 280 GPUs verwendete.

Vielleicht noch wichtiger sind die Nachrichten aus dem letzten Jahr - als eine spätere Version der Software AlphaGo Zero. Anstatt vorhergehende Daten zu verwenden, wie AlphaGo und Deep Blue, mussten sie, um das Spiel zu erlernen, einfach Tausende von Spielen gegen sich selbst ausspielen - und nach drei Tagen Training konnte sie die Version von AlphaGo schlagen, die Lee Sedol 100 Spiele zu Null schlug. Wer muss einer Maschine beibringen, intelligent zu sein, wenn sich eine Maschine selbst beibringen kann?

  • TechRadar AI-Woche wird Ihnen in Verbindung mit Honour gebracht.