Interview: Chancen und Risiken der Künstlichen Intelligenz

Über die Chancen und Risiken der Künstlichen Intelligenz (KI) wird viel diskutiert und es gibt jede Menge sehr gegensätzlicher Aussagen dazu. Wir haben uns darüber mit Prof. Dr. Hans-Dieter Burkhard von der Humboldt Universität Berlin unterhalten. Der Mathematiker forscht schon seit vielen Jahren auf dem Gebiet der KI und erklärt im Interview, wo die Hürden liegen, wie er die weitere Entwicklung einschätzt und warum wir dringend eine Diskussion in der Gesellschaft über die KI-Forschung brauchen.

Prof. Dr. Hans-Dieter Burkhard

Prof. Dr. Hans-Dieter Burkhard

Erklären Sie doch bitte einmal unseren Leserinnen und Lesern, wie Sie zu dem Forschungsfeld kamen und womit Sie sich dort aktuell vor allem beschäftigen.

Hans-Dieter Burkhard: Ich bin ursprünglich Mathematiker und da kam an einem Punkt die Idee auf, dass Nutzer von Programmen ein so genanntes „Expertensystem“ bekommen sollten, damit sie sich leichter zurechtfinden. Ein solches System führt sie durch die Anwendung und das ist ein Teil dessen, was damals unter den Begriff „künstliche Intelligenz“ fiel. Das war Ende der 80er, dann kam die Wende und ich habe mich auf den Bereich „künstliche Intelligenz und Wissensverarbeitung“ konzentriert. Das war gerade zu einer Zeit, als die KI einen schlechten Ruf hatte, weil so manche optimistische Vorhersage nicht eingetroffen war.

Noch etwas später bin ich dann zur Robotik gekommen und das interessiert mich im Moment am meisten. Sehen Sie das als „KI mit einem Körper“ an.

Da muss ich natürlich sofort an den „Terminator“ denken. Aber zu Filmen und diesen Dingen kommen wir später noch. Welche Entwicklungen finden Sie denn in der KI derzeit am interessantesten? Das ist schließlich ein sehr vielfältiges Feld geworden und hat selbst für Experten so manche Überraschung parat gehabt in letzter Zeit.

Hans-Dieter Burkhard: Spannend finde ich da eigentlich alles! Aber natürlich war es sehr interessant, Googles „AlphaGo“ spielen zu sehen. Und auch in der Medizin hat sich sehr viel getan. Wenn man vor 25 Jahren mit einem Mediziner über Computer gesprochen hat, dann hat er gesagt: Na gut, das kann ich für die Abrechnung benutzen. Das war es dann auch schon. Heute ist eine Arztpraxis ohne Computer nicht mehr denkbar. Das muss aber natürlich noch nicht KI sein. Oder wenn wir an das Operationssystem „Da Vinci“ denken: Damit haben wir nun die Möglichkeit, aus der Ferne minimal invasiv zu operieren.

Was ich auch sehr spannend finde und früher nicht erwartet hätte, ist die heutige Qualität von Googles Sprachübersetzung. Das ist zwar nicht vergleichbar mit dem, was ein Mensch kann. Aber von einer Sprache in hundert andere so weit zu übersetzen, dass man das als Muttersprachler wieder verstehen kann, das schien mir so nicht vorstellbar. Und das Interessante ist zugleich, dass das durch simple Statistik erreicht wurde: Welche Wortfolgen passen zu welchen übersetzten Folgen, die ich schon kenne? Da sind wir dann bei der Frage, ob das nun künstliche Intelligenz ist oder einfach Statistik.

Suchmaschinen wie Google sind für uns heute selbstverständlich, gehören aber auch zum Thema. Die suchen nicht mehr nur einen Text oder ein Wort, sondern erkennen außerdem Zusammenhänge.

Wir finden in der KI Lösungen, die unter Umständen anders vorgehen als unsere eigene Intelligenz.

Ebenfalls spannend sind die Entwicklungen beim autonomen Fahren. Da hätte ich persönlich nicht gedacht, dass es so schnell vorangeht. Allerdings löst die Maschine die Aufgabe hier ganz anders als der Mensch. Die Entwickler stellen dem System zum Beispiel umfangreiches Kartenmaterial zur Verfügung und dann weiß die Maschine, wo sie die Ampel auf der Kreuzung zu suchen hat. Wir Menschen hingegen können selbst in komplizierten Situationen erkennen, welches rote Licht in der Umgebung zu einer Ampel gehört.

Und das ist generell ein interessantes Phänomen: Wir finden in der KI Lösungen, die unter Umständen anders vorgehen als unsere eigene Intelligenz.

Alle Artikel bequem via E-Mail lesen!

Alle Artikel bequem via E-Mail lesen!

Jede Woche veröffentlichen wir ein bis zwei ausführliche Beiträge, geschrieben von namhaften Expertinnen und Experten. Sie erklären, geben Tipps und ordnen ein. Wenn Sie diese und weitere Artikel nicht verpassen wollen, schicken wir Sie ihnen gern per E-Mail zu – ganz bequem und in voller Länge! Derzeit lautet der Schwerpunkt „Corporate Blogs in der Praxis“.

Mehr über die Ausgabe erfahrenJetzt E-Mail eintragen

Ein Problem mit selbstfahrenden Autos ist in der Praxis bisweilen, dass sie sich zu strikt an die Regeln halten – und damit ihre menschlichen Kollegen verwirren oder überraschen. Müssen wir den Maschinen am Ende beibringen, weniger perfekt zu sein, auch mal Regeln zu brechen und kleine Fehler zu machen?

Hans-Dieter Burkhard: Genau das ist ein Problem für die Weiterentwicklung der KI: die rechtlichen Vorgaben. Bei einem Menschen tolerieren oder  erwarten wir sogar, dass er sich im Rahmen gewisser Grenzen nicht exakt an das hält, was vorgegeben ist. Darf das eine Maschine auch? Ein typisches Beispiel aus dem Straßenverkehr ist das Einordnen auf eine neue Spur auf der Autobahn: Vom Gesetz her müsste man auch dann den Sicherheitsabstand einhalten. Aber bei starkem Verkehr muss man bisweilen in eine Lücke stoßen, die zunächst zu klein ist. Bringt man dem selbstfahrenden Auto nun bei, in diesem Fall gegen die Regel zu verstoßen, weil es ansonsten nie die Spur wechseln könnte?

Oder noch extremer: Denken wir an eine potenzielle Unfallsituation. Es könnte gut sein, dass das Befolgen der normalen Regeln zu einem Crash führen würde. Ein Programmierer soll nun also im Voraus entscheiden, wie diese Abwägung ablaufen soll?

99 Prozent des selbstfahrenden Autos lassen sich relativ leicht umsetzen.

Auf der einen Seite haben aktuelle Fahrzeuge heute schon viel Elektronik eingebraut, die in vielen Alltagssituationen hilft. Sie kann die Spur halten, das Auto einparken und einiges mehr. Da könnte man als Laie leicht denken, der Schritt zum autonomen Fahrzeug kann doch so weit gar nicht mehr weg sein, da fehlen doch nur noch 10 Prozent. Können Sie einmal erklären, warum das nicht der Fall ist?

Hans-Dieter Burkhard: Ich würde sogar sagen, 99 Prozent lassen sich relativ leicht umsetzen. Andere würden eventuell 95 Prozent sagen. In diesen Fällen können wir jedenfalls die Standardmethoden nutzen und haben simple Vorgänge wie Bremsen, Anhalten, Beschleunigen. Aber das fehlende Prozent muss mit Situationen zurechtkommen, die nicht eindeutig erkennbar sind. Da fehlt auf dem Gebiet der Wahrnehmung noch zu viel oder  das Kartenmaterial von Google Maps und Streetview alleine helfen nichtweiter. Diese fehlenden  Prozente erfordern viel Aufwand oder scheinen zum Teil unlösbar. Da muss noch viel zusammenkommen: Verbesserung der Algorithmen, Verbesserung der Sensoren, schnelleres Rechnen. Da ist der Mensch eben doch flexibler als die Maschine mit ihren starren Vorgaben.

Hinzu kommt, dass der Mensch heutzutage immer noch verantwortlich ist als Fahrer. Es kann sehr anstrengend sein, das selbstfahrende Auto zu überwachen. Man denke nur einmal, wie gestresst man bisweilen als Beifahrer ist. Und hier agiert das Auto allein. Man gewöhnt sich natürlich daran, dass das Fahrzeug normalerweise alles richtig macht. Aber wie viele Sekunden vorher sollte ein Auto eigentlich warnen, dass es gerade nicht mehr weiter weiß und der Mensch eingreifen muss?

Was glauben Sie denn, wie schnell sich die fehlenden Prozente erreichen lassen? Letztlich sprechen wir dann wohl über eine selbst-lernende künstliche Intelligenz, die mit allen Situationen allein zurechtkommt. Da gibt es schließlich sehr unterschiedliche Vorhersagen.

Hans-Dieter Burkhard: Ich muss sagen, dass ich immer eher skeptisch gewesen bin und von einigen Entwicklungen doch überrascht wurde. Letztlich kommt es aber immer darauf an, was wir erwarten. Automatischen Kolonnenverkehr von Lkw auf der Autobahn beispielsweise kann es schon bald geben, entsprechende Praxistests haben wir bereits gesehen. Da sind es dann eher die rechtlichen Hürden, die im Weg stehen.

Andere Dinge können noch sehr lange dauern. Ich würde nicht so bald erwarten, dass selbstfahrende Autos beispielsweise auch bei Schneetreiben oder Nebel gut genug fahren können.

Es wird noch lange dauern, bis eine Maschine auch versteht, was sie sagt.

Oder zurück zum Beispiel der Google-Übersetzung: Das wird sukzessive besser werden, aber es wird noch lange dauern, bis diese Maschine auch versteht, was sie da eigentlich sagt. Denken Sie an den bekannten Turing-Test, bei dem man sich mit einer Maschine über alles unterhalten kann und man nicht mehr unterscheiden kann, ob das ein Mensch oder eine Maschine ist. Auch das wird noch recht lange dauern, denke ich.

Glauben Sie denn, dass wir jemals einen künstlichen Menschen erschaffen können – mit Kreativität, einem Bewusstsein, Gefühlen…

Dabei stellt sich für mich erst einmal die Frage, was wir mit bestimmten Begriffen eigentlich meinen, zum Beispiel „Kreativität“. Der „Go“-Meister hat zwar gesagt, Googles KI habe kreative Züge gefunden. Aber heißt das jetzt, dass er darauf nicht so schnell gekommen wäre oder ist AlphaGo tatsächlich ein kreativer Go-Spieler?

Und wird eine Maschine wirklich ein Bewusstsein ihrer selbst haben können? Da bin ich auch relativ skeptisch. Aber natürlich kann ich das alles simulieren. Als Beispiel: Ich bin beim Roboter-Fußball aktiv und da könnte ich einen Robotspieler so programmieren, dass er hinterher genau sagen kann, warum er in dem einen Moment nicht auf das Tor geschossen hat. Er könnte erklären, was er sich dabei „gedacht“ hat und sogar sagen, er sei sich unsicher gewesen. Solche Dinge lassen sich schließlich in Zahlen ausdrücken. Aber bedeutet das nun, dass dieser Roboter ein Bewusstsein hat? Und falls wir das verneinen: Was genau fehlt denn eigentlich noch? Das sind alles Fragen für die Philosophen.

Gefühle sehe ich ebenfalls als schwierig an, also beispielsweise Schmerz oder Glück zu empfinden. Es ist überhaupt kein Problem, einen Roboter die Arme hochwerfen zu lassen und schon glaubt man vielleicht, dass der Gefühle hätte. Aber intern empfindet er überhaupt nichts und ich kann ihn genauso gut mit ein paar wenigen Mausklicks statt des freudigen Gesichts ein trauriges Gesicht machen lassen.

An dieser Stelle sehe ich ehrlich gesagt keinen Ansatz oder ob wir das überhaupt machen sollten. Brauchen wir das eigentlich? Brauchen wir Maschinen, die Gefühle haben?

Ein launischer Fahrkartenautomat wäre überhaupt kein Problem.

Das wäre es doch vielleicht: ein Fahrkartenautomat mit Launen. Der Mensch am Schalter hat schließlich auch mal einen schlechten Tag…

Hans-Dieter Burkhard: Das wiederum wäre gar kein Problem. Man kann ihn per Zufallsgenerator entweder eine kurze und knappe Antwort geben oder ihn gesprächig sein lassen. Aber das wäre dann eben wieder nur nach außen. Deshalb finde ich es immer etwas schwierig, wenn jemand eine KI vorhersagt, die „wie ein Mensch ist“. Da frage ich mich immer, was damit eigentlich gemeint ist. Hat die dann Hunger, wenn die Batterie leer ist?

Kommen wir doch einmal auf das generelle Thema der Chancen und Risiken rund ums Thema KI zu sprechen. Was sehen Sie dort in den nächsten Jahren auf uns zukommen?

Hans-Dieter Burkhard: Wir könnten künftig viele Aufgaben, bei denen bisher Menschen notwendig waren, an Maschinen delegieren. Das gilt in der Landwirtschaft oder Industrie beispielsweise, oder wie schon besprochen im Straßenverkehr. Da könnten wir goldenen Zeiten entgegengehen – wenn die Gesellschaft diesen Wandel in den Griff bekommt. Dazu müsste das, was an Mehrwert oder Profit möglich wäre, allen zugute kommen. Wenn das nicht der Fall ist, kann das genauso gut ins Gegenteil umschlagen: Es werden dann schlichtweg immer weniger Menschen gebraucht, um etwas zu produzieren.

Am Beispiel der Pflege für ältere Menschen kann man sehr schön zeigen, wie unterschiedlich man diese Zukunft bewerten kann. Einerseits gibt es dort das Bild, dass ein seelenloser Roboter die arme, pflegebedürftige Person umbettet. Davor kann man vielleicht sogar Angst haben. Auf der anderen Seite kann das aber zugleich heißen: Das eigene Zuhause lässt sich so gestalten, dass man sich länger alleine versorgen kann. Zudem wächst eine neue Generation heran, die viel mehr Spaß hat, mit Maschinen umzugehen. Ich persönlich sehe das deshalb nicht so düster wie manche andere Leute.

Sie haben schon erwähnt, dass die Gesellschaft auf diesen Wandel reagieren muss. Könnten Sie das noch etwas genauer erläutern?

Hans-Dieter Burkhard: KI kann dazu führen, dass nur noch wenige Menschen umfangreiche Prozesse in der Wirtschaft, in den Medien, im Militär oder in der Politik steuern und damit Macht ausüben können. Immer weniger Menschen würden dann an den Schalthebeln sitzen. Das können zum Beispiel Politiker sein und ich mag mir gar nicht vorstellen, was beispielsweise die Stasi in der DDR mit diesen Möglichkeiten angestellt hätte. Oder in Zukunft könnte ein Terrorist nicht nur ein Flugzeug kapern, sondern gleich eine ganze Stadt in eine Katastrophe stürzen. Oder denken Sie ans Militär: Da sind wir bereits jetzt in der Lage, Maschinen zu bauen, die immer selbstständiger entscheiden. Wenn der eine damit anfängt – natürlich nur, um sich zu verteidigen, wie immer betont wird – dann wird der andere sein Offensivarsenal entsprechend aufrüsten. Das kann zu einer neuen Rüstungsspirale führen. Und hier muss ich zugleich bedenken, dass solche Maschinen in die falschen Hände geraten können.

Wo ist der Punkt, an dem man mit der Forschung aufhört?

Ich sehe dabei nicht die Gefahr, dass die Maschinen am Ende selbst die Macht übernehmen wollen, wie es ja in manchen Filmen gezeigt wird. Sie hatten den „Terminator“ schon genannt. Aber es könnte sehr wohl Menschen geben, die die Maschinen so programmieren, dass sie nicht mehr vom Menschen beeinflussbar sind. Wo ist der Punkt, an dem man mit der Forschung aufhört?

Oder stellen Sie sich ein komplexes System vor mit Verteidigungswaffen, Angriffswaffen, Aufklärung etc., das von einer KI gesteuert wird. Vielleicht wird durch ein Missverständnis oder eine falsche Information der  Verteidigungsfall ausgelöst und automatisch losgeschossen. Solche falschen Einschätzungen und Fehlfunktionen haben wir mit ähnlichen Systemen im Finanzmarkt schließlich bereits gesehen.

Hier ist aus meiner Sicht eine Diskussion gefordert in der Gesellschaft und in der Politik, wo wir die ethischen Grenzen setzen wollen.

Welche Missverständnisse und Falschinformationen sehen Sie denn andererseits in der öffentlichen Diskussion, wenn es um die Chancen und Risiken von KI geht?

Hans-Dieter Burkhard: Das ist eine sehr diverse Diskussion. Bauchschmerzen habe ich beispielsweise mit der Aussage, eine Maschine werde in Zukunft handeln wie ein Mensch. Eine Maschine handelt rationaler als ein Mensch. Dadurch ist sie einerseits vielleicht weniger beeinflussbar, aber eben auch weniger flexibel als ein Mensch.

Am Ende sind es Menschen, die hinter den Maschinen stehen.

Schauen Sie sich ein Schachprogramm an: Das möchte nicht gewinnen. Natürlich kann ich es wie eben schon beschrieben simulieren, damit es so aussieht als ob. Aber in Wirklichkeit stimmt das eben nicht. Am Ende sind es Menschen, die hinter den Maschinen stehen. Sie entscheiden, was sie tun sollen. Und deshalb meine ich eben, dass wir dafür Richtlinien brauchen.

Glauben Sie denn an die von machen befürchtete „Intelligenzexplosion“? Damit ist in der Regel ein selbst-lernendes System gemeint, das sich laufend selbst verbessert – und dann blitzschnell an uns Menschen vorbeizieht und wir nicht mehr verstehen, was es tut und warum?

Hans-Dieter Burkhard: Die Frage ist da für mich, woran wir so eine „Superintelligenz“ überhaupt erkennen würden. Wir sind doch heute schon so weit, dass Maschinen manche Dinge besser verstehen als wir und wir im Gegenzug nicht mehr so genau wissen, was sie eigentlich tun und warum. Und das wird immer mehr werden. Denken sie an Finanztransaktionen oder Googles AlphaGo: Das sind heute zwar einzelne Projekte, aber davon wird es immer mehr geben und die werden sich auch komplex verbinden. Deshalb würde ich das gar nicht an die Frage knüpfen, ob es eine Superintelligenz jemals geben wird oder nicht.

Vielmehr ist es die Frage, was man so ein System lernen lässt und welche Optimierungsziele man setzt. Mal ein kurioses Beispiel: Man bringt einem selbstfahrenden Auto bei, möglichst umweltschonend zu sein. Und dann kommt es zu dem Schluss, dass es dieses Ziel am besten erreicht, in dem es überhaupt gar nicht mehr fährt. Weniger zum Schmunzeln wäre das, wenn so eine KI das Stromnetz abschaltet, weil es eine nicht ganz perfekte Ansage bekommen hat.

Wo wir doch den Terminator schon erwähnt hatten: Können Sie am Schluss einmal Filme, TV-Serien oder Bücher empfehlen, die aus Ihrer Sicht das Thema KI auf eine gute und interessante Weise darstellen?

Hans-Dieter Burkhard: Der Film „Her“ fällt mir hier ein. Ich würde auch noch „Ex Machina“ dazu nennen wollen, wo zumindest einige Teile auf reale Fragestellungen zurückgehen. In „Ex Machina“ ist mir dort das maschinelle Lernen aus vielen Daten aufgefallen. Oder wie in „Her“ die KI mit der Frauenstimme sich mit etlichen Menschen vernetzen kann – je nachdem, was ihr gerade interessanter erscheint. Das sind alles Dinge, die tatsächlich denkbar sind. Aber dass ein Wesen herauskommt, das wie ein Mensch reagiert, ist natürlich wieder Utopie für mich.

Was ich auch interessant fand, war die schwedische Serie „Real Humans“. Die ist technisch zwar noch völlig utopisch. Interessant ist hier aber die Vorstellung, wir hätten Roboter in unserem Umfeld, die sich wie Menschen verhalten. Da wird ein Roboter beispielsweise senil und muss von seinem Besitzer gepflegt werden. Ein anderer Roboter wird religiös. Außerdem ging es um Diskriminierung, weil die Roboter von den Menschen nicht in die Gesellschaft gelassen werden, obwohl sie doch ebenbürtiger oder vielleicht sogar teilweise moralisch besser sind. Das sind Fragen, die ein wenig über das übliche Klischee hinausgehen. Aber technisch ist es noch weit entfernt von dem, was wir können.

Außerdem fällt mir noch das Buch „Drohnenland“ein. Das ist ein Krimi und eine utopische Geschichte, in der mit virtueller Realität gespielt wird. Alle Menschen haben darin Brillen, mit denen man genau sieht, was jeder weiß und getan hat. Und das ist durchaus auch nicht so sehr fern von der Realität. Das ist weniger KI, sondern eher Datensammlung und Datensicherheit, aber das ist wirklich interessant.

Rund ums Thema Arbeitswelt geht es in den Buch von Constanze Kurz und Frank Rieger: „Arbeitsfrei – ein Ausflug zu den Maschinen, die uns ersetzen“. Da ist einmal sehr schön dargestellt, welche Möglichkeiten es in der Industrie und Landwirtschaft schon gibt und noch geben wird. Wir stehen schließlich gerade am Anfang dieser Entwicklung.

Bildnachweis fürs Artikelfoto: © kantver, Fotolia.com

Artikel vom 25. Juli 2016