Maschinen lernen lernen


Traum oder Albtraum? Immer besser sind Maschinen imstande zu lernen und konkurrieren daher stärker mit der menschlichen Intelligenz.


November 2015



Erstmals hat 2014 ein Programm auf einem Supercomputer den Turing-Test bestanden. Die Software namens Eugene Goostman gaukelte in einem Chat Menschen erfolgreich vor, sie sei ein 13-jähriger Junge. Damit muss Eugene Goostman zugestanden werden, denken zu können. Zumindest formulierte so der britische Mathematiker und Informatikpionier Alan Turing 1950 den Zweck des nach ihm benannten Tests: Seiner Auffassung nach kann eine Maschine denken, wenn sie sich mit einem Menschen unterhalten kann – und dieser nicht bemerkt, dass er es mit einem künstlichen Wesen zu tun hat.

Bedeutet dies aber nun tatsächlich, dass der sich hinter Eugene Goostman verbergende Computer intelligent ist? Oder hat man es schlicht mit dem Fall zu tun, dass Eugene so programmiert wurde, dass er Menschen an der Nase herumführen und ihnen weismachen kann, er sei ein Mensch? Eben diesen Unterschied hat der Philosoph John R. Searle mit seinem „Chinese Room Experiment“ versucht zu zeigen. Bei diesem Gedankenexperiment sitzt eine Person in einem Raum, die Chinesisch weder sprechen noch schreiben kann. Durch einen Schlitz in der Wand erhält sie Botschaften in chinesischen Schriftzeichen. Mit einem „Handbuch“ in ihrer eigenen Muttersprache ausgestattet, reagiert die Person auf diese Botschaften und gibt chinesische Antworten. Ein chinesischer Muttersprachler außerhalb des Raumes muss den Eindruck gewinnen, dass er es mit jemandem zu tun hat, der Chinesisch spricht. Searles Position ist, dass Denken nicht allein aus dem syntaktischen Hantieren mit Symbolen besteht, sondern vor allem auch aus den semantischen Inhalten, die mit den Symbolen verknüpft sind. Weil Computeralgorithmen aber allein auf der syntaktischen Ebene arbeiten, schließt Searle, dass sie nicht denken können. Hingegen schließt Searle nicht aus, dass Programme die Ergebnisse von Denkvorgängen simulieren können.

Die Analyse gesprochener und geschriebener Sprache fällt Maschinen sehr schwer – aber ist allein deshalb schon der Umgang mit Sprache der richtige Test zur Feststellung der Intelligenz einer Maschine? In der Vergangenheit änderte sich immer dann, wenn Maschinen Aufgaben meisterten, die mit hoher Intelligenz assoziiert werden, flugs auch die Auffassung davon, was wir unter Intelligenz verstehen. Wenn Computer heute meisterhafter Schach spielen können als Menschen und sie in Quizshows schlagen, dann halten wir Computer deshalb noch lange nicht für intelligent. Allein schon aus dem Grund nicht, weil solche Supertalente stets nur eine Sache wirklich gut beherrschen; der beste Schachcomputer wird bei den einfachsten anderen Dingen kläglich versagen. Die Leistung der Computer beruht im Wesentlichen ja schlicht darauf, dass sie in Windeseile riesige Datenbanken durchforsten – zugegeben, darin sind sie jedem Menschen haushoch überlegen, aber mit Intelligenz hat diese Rechenkraft nichts zu tun.

Was also macht eine Maschine intelligent? Wie lange wird sich der Mensch noch darauf zurückziehen können, nur dort Intelligenz zu verorten, wo der Mensch der Maschine überlegen ist? Es wird nicht mehr lange dauern und Maschinen werden auch die besseren Autofahrer sein, die besseren Übersetzer und sie werden die besseren medizinischen Diagnosen stellen. Denn die künstliche Intelligenz macht mit „Deep Learning“ gerade gigantische Sprünge vorwärts. Mit Hilfe enormer Datenmengen und massiver Rechenpower wird bei diesem Verfahren nach wiederkehrenden Mustern gesucht, um das zu schaffen, was für Menschen ein Kinderspiel ist: unscharf definierte Probleme lösen, also etwa Gesichter erkennen (auch wenn sie aus verschiedenen Winkeln aufgenommen wurden), Sprache verstehen (auch wenn sie mit unterschiedlichen Akzenten gesprochen wurde) und Bilder mit ähnlichen Motiven kategorisieren.

Tatsächlich sind die Fortschritte auf dem Feld des Maschinenlernens derart groß, dass sich immer mehr prominente Warner zu Wort melden, um die Gefahren von künstlicher Intelligenz aufzuzeigen. Der Technologie-Unternehmer Elon Musk hält künstliche Intelligenz für potentiell gefährlicher als Atomwaffen. Auch der Astrophysiker Stephen Hawking sieht in künstlicher Intelligenz eine Bedrohung für die Menschheit, weil sie sich vom Menschen unabhängig machen könnte und dem Menschen die Kontrolle über die Maschinen entgleitet. Aber auch viele andere Wissenschaftler – auch solche aus dem Bereich der KI-Forschung – mahnen in einem Anfang des Jahres veröffentlichten offenen Brief die Entwicklung einer langfristigen Perspektive an: Bei allem Nutzen, den denkende Maschinen der Gesellschaft bringen können, dürften die Gefahren nicht außer Acht gelassen werden.

Weil künstliche Intelligenz die Kraft hat, unser gesamtes Leben umzukrempeln und Maschinen Entscheidungen fällen werden, die auf unser aller Leben wirken, wird es notwendig sein, sich über Grenzen bewusst zu werden und Kontrollen einzuführen. Die Entwicklung und Einführung künstlicher Intelligenz ruft nach intelligenten Grenzziehungen: Wie können intelligente Maschinen ihren Verheißungen gerecht werden und unsere Horizonte erweitern, anstatt ständig zu Kompromissen zu zwingen und Handlungsoptionen einzuschränken?

Teilen

Weitere Artikel dieser Ausgabe:

f/21 Quarterly liefert Ihnen 4-mal jährlich frisches Zukunftswissen direkt in Ihr Postfach.
Registrieren Sie sich jetzt kostenlos!