Verfechter der Künstlichen Intelligenz ( kurz „KI") gehen davon aus, dass sich das menschliche Gehirn im Wesentlichen mit einer Festplatte vergleichen lässt und der menschliche Verstand mit einer Software.
Künstliche Intelligenz könne man demzufolge einem Computer dadurch antrainieren, indem man die Software möglichst intelligent schreibt, möglichst viel Wissen implementiert und die Festplatte möglichst leistungsstark baut.
Die Diskussion um die Künstliche Intelligenz der Maschinen ist dabei älter als das Internet, schon Mitte der 60er Jahre gab es lebhafte Debatten zwischen KI-Gläubigen und - Skeptikern. Doch der tatsächliche Durchbruch - auch das wusste man 1965 - würde für die vermenschlichte Maschinenintelligenz erst dann kommen, wenn Rechnergeschwindigkeit und Speicherkapazität keine Rolle mehr spielen. Diese beiden technischen Barrieren sind seit einigen Jahren weitestgehend ausgeräumt.
Nicht ausgeräumt dagegen sind die unversöhnlichen Positionen von KI-Protagonisten und den KI-Kritikern. Die Skeptiker betonen, dass nur das menschliche Gehirn in der Lage sein kann, abgespeicherte Fakten in einem Zusammenhang zu sehen, auch wenn der Computer natürlich mehr Fakten an sich speichern kann als ein Mensch.
Aber eben keine Zusammenhänge, die sich aus menschlichen Erfahrungswerten ergeben und die nicht „anlernbar" sind, egal welche Speicherkapazität ein Rechner hat.
Ein Beispiel: Der mit künstlicher Intelligenz ausgestattete, selbstfahrende Wagen würde auf einer Vorortstraße keinen Grund sehen die Geschwindigkeit zu reduzieren, nur weil es wenige Minuten nach 13:00 ist.
Aber vielleicht der menschliche Fahrer, der weiß, dass in der Seitenstraße eine Schule ist, dass die Schüler genau jetzt das Schulgelände verlassen und dass ihr Schulbus auf der gegenüberliegenden Seite der Straße abfährt, die er selbst gerade befährt. Künstliche Intelligenz ohne die Fähigkeit nicht faktenbasierte Zusammenhänge zu sehen, ist gefährlich, sagen die Kritiker.
Davor warnen auch die Physiker- und Kognitionswissenschaftler Douglas Hofstadter und sein französischer Co-Autor Emmanuel Sander. Computer würden nie Analogien beherrschen, damit sei der Bereich Künstliche Intelligenz durch eine natürliche Barriere blockiert.
In ihrem Werk „Surfaces and Essences. Analogy as the Fuel and Fire of Thinking" führen sie viele Beispiele dafür an, warum dass fehlerhafte und langsame menschliche Gehirn (im Vergleich zum Computer) zu kulturellen Höchstleistungen fähig ist. Ein Computer kann, so das Forscherteam, nicht selbsttätig die Essenz, den Kern einer Beobachtung feststellen. Was diese Unfähigkeit der Analogiebildung bei Computern für den Einsatz von Artificial Intelligence im Krieg bedeuten kann, ist bereits eine reale Gefahr:
Eine computergesteuerte und von Computern ausgewertete Drohne kann nicht erkennen, dass der großgewachsene 12jährige auf dem Marktplatz südlich von Bagdad ein Plastikgewehr hält und mit seinen Freunden spielt. Nur ein menschliches Gehirn kann die Analogie ziehen, dass fast jeden Tag nach der Schule Tausende von Kindern auf der ganzen Welt seit Jahrzehnten so etwas wie „Cowboy und Indianer" spielen und eben auch dieses Kind mit größter Wahrscheinlichkeit kein IS-Terrorist ist.
Wird auf mehr künstliche Intelligenz in militärischen Auseinandersetzungen gesetzt, werden Verluste der technologisch dominanten Partei erheblich abnehmen und die gerne als „Kollateralschäden" bezeichneten zivilen Opfer in der technologisch unterlegenen Gesellschaft zunehmen.
Fehlentscheidungen von menschenunabhängigen Waffensystemen oder selbstfahrenden Autos sind ein negativer Aspekt der unausweichlichen Entwicklung. Aber auch die Arbeitswelt wird sich verändern wie kaum jemals zuvor. Die „Mensch-Maschine-Kommunikation" und selbstlernende Systeme werden in den nächsten 10 Jahren weltweit hunderttausende von Jobs überflüssig machen.
Das Institut Pew Research befragte in diesem Jahr rund 2000 Unternehmens- und Computerexperten, wie sich ihrer Meinung nach die Weiterentwicklung der Computerintelligenz auf die weltweiten Arbeitsmärkte auswirken wird.
Knapp die Hälfte der Experten geht in der Untersuchung davon aus, dass bis 2025 ein massiver Arbeitsplatzabbau durch intelligente Computeranwendungen ausgelöst wird. Davon werden zwar viele Jobs durch völlig neue Tätigkeiten ersetzt werden, aber im intellektuellen Mittelbau der Berufe wird es eng werden. Finanzbuchhalter, die Excel-Berge lesbar aufbereiten, wird es nicht mehr brauchen und ein Computer wird ein wesentlich exakteres Krankheitsbild aus allen medizinischen Messwerten erstellen können als ein menschlicher Laborassistent.
Künstliche Intelligenz kann also ganz banal, ganz harmlos und auch hilfreich sein, ebenso wie Dynamit. Im Bergbau eingesetzt, erschreckt Sprengstoff niemanden. Aber Maschinen, die das menschliche Denken zunächst imitieren, dann kopieren und schließlich in der Lage sind, selbst immer weiter zu lernen, werden nicht nur im digitalen Bergbau eingesetzt werden.
„Künstliche Intelligenz ist möglicherweise gefährlicher als Atomwaffen", sagt jemand, der außer Verdacht steht, sonderlich fortschrittskritisch zu sein: Elon Musk, der Erfinder des Elektro-Superwagen Tesla und des Raumfahrtunternehmens Space X. „Hoffentlich sind wir nicht irgendwann nur das biologische Startprogramm für die digitale Superintelligenz. Leider wird das immer wahrscheinlicher", twitterte Musk Anfang des Monats.
Einer der intelligentesten Köpfe der Computergeschichte, der 2008 in Berlin verstorbene Joseph Weizenbaum, der als Immigrant in den USA den Internet-Vorgänger arpa.net maßgeblich mitentwickelte, wurde später zu einem der entschiedensten Kritiker der ungebremsten Computertechnologie-Gläubigkeit. Weizenbaum in einem Interview mit der Süddeutschen Zeitung : „Es ist im Prinzip unmöglich, den Menschen rein wissenschaftlich zu begreifen. Deswegen ist das Streben, Roboter in Menschgestalt herzustellen, absurd. Es kann nur aus Größenwahn oder Uterusneid entstehen".
Auf der ganz anderen Seite der KI-Forscher steht der Österreicher Hans Peter Moravec, Robotik-Wissenschaftler an der Carnegie Mellon University in Pittsburgh (USA):
"Ich sehe diese Maschinen als unsere Nachkommen. Im Augenblick glaubt man das kaum, weil sie eben nur so intelligent sind wie Insekten. Und wir werden unsere neuen Roboterkinder gern haben, denn sie werden angenehmer sein als Menschen. Man muss ja nicht all die negativen menschlichen Eigenschaften, die es seit der Steinzeit gibt, in diese Maschinen einbauen. ...Wir werden sie als Kinder annehmen - als Kinder, die nicht durch unsere Gene geprägt sind, sondern die wir mit unseren Händen und mit unserem Geist gebaut haben".
Ob wir mit menschenähnlicher Intelligenz ausgestattete Computer in den nächsten Jahren als willkommene Helfer in den Alltag integrieren oder fatale militärische Entscheidungen von menschenunabhängig agierenden Waffensystemen erleben müssen: Künstliche Intelligenz wird den Alltag der Menschen in seiner Tragweite genauso verändern wie die Erfindung des Automobils - oder des Sprengstoffs.
Künstliche Intelligenz könne man demzufolge einem Computer dadurch antrainieren, indem man die Software möglichst intelligent schreibt, möglichst viel Wissen implementiert und die Festplatte möglichst leistungsstark baut.
Die Diskussion um die Künstliche Intelligenz der Maschinen ist dabei älter als das Internet, schon Mitte der 60er Jahre gab es lebhafte Debatten zwischen KI-Gläubigen und - Skeptikern. Doch der tatsächliche Durchbruch - auch das wusste man 1965 - würde für die vermenschlichte Maschinenintelligenz erst dann kommen, wenn Rechnergeschwindigkeit und Speicherkapazität keine Rolle mehr spielen. Diese beiden technischen Barrieren sind seit einigen Jahren weitestgehend ausgeräumt.
Nicht ausgeräumt dagegen sind die unversöhnlichen Positionen von KI-Protagonisten und den KI-Kritikern. Die Skeptiker betonen, dass nur das menschliche Gehirn in der Lage sein kann, abgespeicherte Fakten in einem Zusammenhang zu sehen, auch wenn der Computer natürlich mehr Fakten an sich speichern kann als ein Mensch.
Aber eben keine Zusammenhänge, die sich aus menschlichen Erfahrungswerten ergeben und die nicht „anlernbar" sind, egal welche Speicherkapazität ein Rechner hat.
Ein Beispiel: Der mit künstlicher Intelligenz ausgestattete, selbstfahrende Wagen würde auf einer Vorortstraße keinen Grund sehen die Geschwindigkeit zu reduzieren, nur weil es wenige Minuten nach 13:00 ist.
Aber vielleicht der menschliche Fahrer, der weiß, dass in der Seitenstraße eine Schule ist, dass die Schüler genau jetzt das Schulgelände verlassen und dass ihr Schulbus auf der gegenüberliegenden Seite der Straße abfährt, die er selbst gerade befährt. Künstliche Intelligenz ohne die Fähigkeit nicht faktenbasierte Zusammenhänge zu sehen, ist gefährlich, sagen die Kritiker.
Davor warnen auch die Physiker- und Kognitionswissenschaftler Douglas Hofstadter und sein französischer Co-Autor Emmanuel Sander. Computer würden nie Analogien beherrschen, damit sei der Bereich Künstliche Intelligenz durch eine natürliche Barriere blockiert.
In ihrem Werk „Surfaces and Essences. Analogy as the Fuel and Fire of Thinking" führen sie viele Beispiele dafür an, warum dass fehlerhafte und langsame menschliche Gehirn (im Vergleich zum Computer) zu kulturellen Höchstleistungen fähig ist. Ein Computer kann, so das Forscherteam, nicht selbsttätig die Essenz, den Kern einer Beobachtung feststellen. Was diese Unfähigkeit der Analogiebildung bei Computern für den Einsatz von Artificial Intelligence im Krieg bedeuten kann, ist bereits eine reale Gefahr:
Eine computergesteuerte und von Computern ausgewertete Drohne kann nicht erkennen, dass der großgewachsene 12jährige auf dem Marktplatz südlich von Bagdad ein Plastikgewehr hält und mit seinen Freunden spielt. Nur ein menschliches Gehirn kann die Analogie ziehen, dass fast jeden Tag nach der Schule Tausende von Kindern auf der ganzen Welt seit Jahrzehnten so etwas wie „Cowboy und Indianer" spielen und eben auch dieses Kind mit größter Wahrscheinlichkeit kein IS-Terrorist ist.
Wird auf mehr künstliche Intelligenz in militärischen Auseinandersetzungen gesetzt, werden Verluste der technologisch dominanten Partei erheblich abnehmen und die gerne als „Kollateralschäden" bezeichneten zivilen Opfer in der technologisch unterlegenen Gesellschaft zunehmen.
Fehlentscheidungen von menschenunabhängigen Waffensystemen oder selbstfahrenden Autos sind ein negativer Aspekt der unausweichlichen Entwicklung. Aber auch die Arbeitswelt wird sich verändern wie kaum jemals zuvor. Die „Mensch-Maschine-Kommunikation" und selbstlernende Systeme werden in den nächsten 10 Jahren weltweit hunderttausende von Jobs überflüssig machen.
Das Institut Pew Research befragte in diesem Jahr rund 2000 Unternehmens- und Computerexperten, wie sich ihrer Meinung nach die Weiterentwicklung der Computerintelligenz auf die weltweiten Arbeitsmärkte auswirken wird.
Knapp die Hälfte der Experten geht in der Untersuchung davon aus, dass bis 2025 ein massiver Arbeitsplatzabbau durch intelligente Computeranwendungen ausgelöst wird. Davon werden zwar viele Jobs durch völlig neue Tätigkeiten ersetzt werden, aber im intellektuellen Mittelbau der Berufe wird es eng werden. Finanzbuchhalter, die Excel-Berge lesbar aufbereiten, wird es nicht mehr brauchen und ein Computer wird ein wesentlich exakteres Krankheitsbild aus allen medizinischen Messwerten erstellen können als ein menschlicher Laborassistent.
Künstliche Intelligenz kann also ganz banal, ganz harmlos und auch hilfreich sein, ebenso wie Dynamit. Im Bergbau eingesetzt, erschreckt Sprengstoff niemanden. Aber Maschinen, die das menschliche Denken zunächst imitieren, dann kopieren und schließlich in der Lage sind, selbst immer weiter zu lernen, werden nicht nur im digitalen Bergbau eingesetzt werden.
„Künstliche Intelligenz ist möglicherweise gefährlicher als Atomwaffen", sagt jemand, der außer Verdacht steht, sonderlich fortschrittskritisch zu sein: Elon Musk, der Erfinder des Elektro-Superwagen Tesla und des Raumfahrtunternehmens Space X. „Hoffentlich sind wir nicht irgendwann nur das biologische Startprogramm für die digitale Superintelligenz. Leider wird das immer wahrscheinlicher", twitterte Musk Anfang des Monats.
Einer der intelligentesten Köpfe der Computergeschichte, der 2008 in Berlin verstorbene Joseph Weizenbaum, der als Immigrant in den USA den Internet-Vorgänger arpa.net maßgeblich mitentwickelte, wurde später zu einem der entschiedensten Kritiker der ungebremsten Computertechnologie-Gläubigkeit. Weizenbaum in einem Interview mit der Süddeutschen Zeitung : „Es ist im Prinzip unmöglich, den Menschen rein wissenschaftlich zu begreifen. Deswegen ist das Streben, Roboter in Menschgestalt herzustellen, absurd. Es kann nur aus Größenwahn oder Uterusneid entstehen".
Auf der ganz anderen Seite der KI-Forscher steht der Österreicher Hans Peter Moravec, Robotik-Wissenschaftler an der Carnegie Mellon University in Pittsburgh (USA):
"Ich sehe diese Maschinen als unsere Nachkommen. Im Augenblick glaubt man das kaum, weil sie eben nur so intelligent sind wie Insekten. Und wir werden unsere neuen Roboterkinder gern haben, denn sie werden angenehmer sein als Menschen. Man muss ja nicht all die negativen menschlichen Eigenschaften, die es seit der Steinzeit gibt, in diese Maschinen einbauen. ...Wir werden sie als Kinder annehmen - als Kinder, die nicht durch unsere Gene geprägt sind, sondern die wir mit unseren Händen und mit unserem Geist gebaut haben".
Ob wir mit menschenähnlicher Intelligenz ausgestattete Computer in den nächsten Jahren als willkommene Helfer in den Alltag integrieren oder fatale militärische Entscheidungen von menschenunabhängig agierenden Waffensystemen erleben müssen: Künstliche Intelligenz wird den Alltag der Menschen in seiner Tragweite genauso verändern wie die Erfindung des Automobils - oder des Sprengstoffs.