Praktische Anwendungen für Künstliche Intelligenz – heute und morgen

Künstliche Intelligenz (KI) ist kein Zukunftsthema, sondern bereits heute vielfach in unserem Alltag zu finden. Ihre Bedeutung wird in den nächsten Jahren und auf jeden Fall in den nächsten Jahrzehnten enorm zunehmen. In diesem Artikel zeigen wir einige besonders interessante Beispiele auf: Dazu zählen einerseits Produkte und Anwendungen, die bereits heute auf KI setzen und andererseits Projekte, an denen in den Labors derzeit gearbeitet wird und die uns schon bald erreichen werden.

So unscheinbar und doch so vielseitig: Amazons Echo bringt den Sprachassistenten Alexa ins eigene Zuhause. (Foto: Spotify)

So unscheinbar und doch so vielseitig: Amazons Echo bringt den Sprachassistenten Alexa ins eigene Zuhause. (Foto: Spotify)

Vorab ein Wort zum „KI-Effekt“: Künstliche Intelligenz ist nie erreicht

Der einführende Artikel zu diesem Themenschwerpunkt hatte bereits aufgezeigt, wie nebulös das Themenfeld „Künstliche Intelligenz“ ist. Es gibt schließlich nicht einmal eine allgemein akzeptierte Definition von Intelligenz an sich. Zudem wird eine große Bandbreite an Produkten, Anwendungen und Projekten unter diesem Titel versammelt. Der Begriff KI ist derweil auf dem Weg zum Hype-Schlagwort und wird daher mit großer Sicherheit von vielen Unternehmen fürs Marketing sehr großzügig genutzt werden. Teilweise passiert das bereits heute.

Meine persönliche, sicherlich unwissenschaftliche Grenze ziehe ich an einer Stelle mit der Frage: Kann das Produkt, die Anwendung, das System mit der Zeit selbstständig lernen und besser werden? Und kann es außerdem auf Situationen reagieren, die von seinen Programmierern und Ingenieuren so nicht explizit vorgesehen wurden?

Mit Blick auf die in diesem Artikel vorgestellten Produkte und Projekte gibt es außerdem ein weiteres Phänomen zu beachten: den „KI-Effekt“. Gemeint ist damit: Als „echte“ Künstliche Intelligenz wird oftmals nur das wahrgenommen, was noch nicht erreicht ist. Sobald es funktioniert, wird es sehr bald als alltäglich angesehen und nicht als „wahre“ Intelligenz. Die Grenze, ab der etwas als wirklich künstlich intelligent beurteilt wird, liegt also stets in der Zukunft. So hieß es beispielsweise lange, Computer würden nie einen Menschen im Schach schlagen können. Sobald sie es konnten, wurde das aber lediglich als komplexe Software angesehen und nicht als „echtes“ Denken.

Gesichtserkennung & Co.

Es gibt etliche Beispiele für künstliche Intelligenz, die heute wohl von vielen nicht mehr als solche wahrgenommen würden. Dazu gehört beispielsweise die Texterkennung. Vor einigen Jahren konnte man damit vielleicht noch Menschen beeindrucken. Heutzutage kennt man zugleich die Schwächen der bisherigen Systeme. Das gilt erst recht für die Erkennung von handschriftlichen Notizen.

Ins gleiche Feld gehört die Gesichtserkennung. Im ersten Schritt findet der Computer bspw. in Fotos oder einem Video die Gesichter. Uns als Menschen erscheint das banal, denn wir haben einen sehr wundersamen, effektiven Mechanismus dafür in unserem Gehirn. Im nächsten Schritt geht es darum, die Person selbst zu erkennen. Auch das erscheint uns simpel, ist es aber aus Sicht einer Software überhaupt nicht. Vor allem unterschiedliche Lichtverhältnisse, Gesichtsausdrücke, Sonnenbrillen, Hüte, Bärte können so ein Programm oftmals noch sehr viel schneller aus dem Konzept bringen als einen Menschen.

Konkrete Anwendung finden solche Systeme beispielsweise bei Sicherheitskameras, die dann zwischen den regulären Bewohnern und einem Einbrecher unterscheiden können. Computer und Smartphones lassen sich bereits über das eigene Gesicht entsperren. Und in Zukunft könnten Automaten auch auf die Emotionen reagieren, die sich beim Nutzer erkennen lassen.

Im Bereich der Bilderkennung hat es in den letzten Jahren generell enorme Fortschritte gegeben. Neuere Systeme können dabei beispielsweise inzwischen mit einer gewissen Sicherheit erkennen, was auf einem Foto zu sehen ist und machen es damit durchsuchbar.

Alle Artikel bequem via E-Mail lesen!

Alle Artikel bequem via E-Mail lesen!

Jede Woche veröffentlichen wir ein bis zwei ausführliche Beiträge, geschrieben von namhaften Expertinnen und Experten. Sie erklären, geben Tipps und ordnen ein. Wenn Sie diese und weitere Artikel nicht verpassen wollen, schicken wir Sie ihnen gern per E-Mail zu – ganz bequem und in voller Länge! Im April lautet der Schwerpunkt „Digitale Pressearbeit“.

Mehr über die Ausgabe erfahrenJetzt E-Mail eintragen

Chatbots und digitale Assistenten

Chatbots gibt es zwar schon lange, aber man würde sie wohl nicht unbedingt als „intelligent“ bezeichnen. Frühe Vertreter konzentrierten sich auf bestimmte, wenige Signalwörter. Man konnte sie recht schnell aus der Fassung bringen. Heute soll das alles besser funktionieren, vor allem durch die Verknüpfung mit digitalen Daten.

In der Praxis ist das so gedacht: Anstatt eine Website oder eine App aufzurufen, können wir in einem Messenger unserer Wahl ein Hotelzimmer oder eine Pizza bestellen, die nächsten Zugverbindungen oder die Wettervorhersage abrufen sowie nach neuen Schuhen suchen. Die Chatoberfläche ist in diesem Fall also eine neue Plattform, die uns die Eingabe und Ausgabe von Informationen auf eine andere Weise ermöglicht, die im Idealfall als einfacher oder natürlicher angesehen wird.

Inzwischen werden solche Chatbots außerdem mit Spracherkennung und Sprachausgabe kombiniert. Die Vision ist dabei der Computer aus „Star Trek“, dem man wie einem Menschen Fragen stellen kann und der auch entsprechend antwortet. Wer dieses Feature einmal bei einem modernen Smartphone ausprobiert hat, wird wohl bestätigen können: Manche Aufgaben lassen sich auf diese Weise tatsächlich einfacher erledigen. Andere hingegen fallen zumindest heute noch auf den althergebrachten Wegen leichter. Wichtig ist hier vor allem die Zuverlässigkeit: Ein solches System muss die Befehle und Fragen sicher erkennen, um wirklich nützlich zu sein. Hier haben alle Anbieter in den letzten Jahren stark zugelegt und sie nähern sich dem Bereich an, in dem die Spracherkennung gut genug funktioniert, um alltäglich eingesetzt werden zu können.

Ein Vorteil der heutigen Systeme gegenüber frühen Chatbots ist dabei die Lernfähigkeit kombiniert mit einer enormen Datenmenge. Denn dank Internet und Smartphones interagieren wir so viel wie nie zuvor mit Computern. Unternehmen können ihre KI als Beta deklarieren und in die weite Welt entlassen. Im Idealfall lernt sie dann dazu und wird von allein immer besser.

Dabei ist ein weiteres Ziel, dass diese Chatbots zu einem digitalen Assistenten mutieren, der beispielsweise auch pro-aktiv Informationen bereit stellt. Auf Android geht Google Now in diese Richtung, Apple versucht Siri das ebenfalls beizubringen.

Momentan sind Chatbots ein heißes Thema. Alle wollen mitmischen, Microsoft sieht es gar als seine Zukunft an. Gut möglich, dass die Erwartungen hier momentan mal wieder viel zu hoch sind und die Systeme in der Praxis doch erst einmal enttäuschen werden. Mittelfristig aber könnte dies ein sehr wichtiges Thema werden. Man denke hier auch an Amazons Sprachassistenten Alexa, den das Unternehmen gerade im smarten Lautsprecher „Echo“ verpackt hat. Google hat mit „Home“ ein sehr ähnliches Produkt angekündigt. Denn letztlich hat sich gezeigt: Vor allem zu Hause werden solche Assistenten genutzt.

Und da ist er dann wieder, der Star-Trek-Computer: Immer zuhörend, allwissend und hilfreich. Stellt sich nur noch die Frage, ob man Unternehmen wie Amazon, Google und Facebook wirklich immer zuhören lassen will. Aber das Thema Privatsphäre hatten wir ja gerade in einer eigenen Ausgabe behandelt. Sehr lesenswert ist da übrigens Michael Firnkes Beitrag zu Big Data.

Selbstfahrende Autos und Fahrassistenten

Googles Werbevideo für ihr Autoprojekt

Die Schwierigkeiten des Forschungsfelds KI kann man beim Thema Auto recht gut sehen. Bestimmte Aufgaben erledigen heutzutage Fahrzeuge bereits ab Werk. So können Autos den Sicherheitsabstand zum Vordermann einhalten, in der Spur bleiben oder beim Einparken helfen. Das ist, was beispielsweise Teslas „Autopilot“ derzeit kann. So mancher glaubt nun aber, dass er damit praktisch ein selbstfahrendes Auto habe und die Verantwortung bereits an die Elektronik abgeben könnte. Die Wahrheit ist weit davon entfernt. Während ein Auto mit einer gewissen Zuverlässigkeit Fahrbahnmarkierungen und Verkehrsschilder erkennen kann, verlangt autonomes Fahren ein viel höheres Maß an Intelligenz. Nicht jede Situation ist eindeutig. Manchmal kommt man nur mit Erfahrung und Intuition weiter.

Schneefall, eine Baustelle oder ein Verkehrspolizist auf einer Kreuzung: Es gibt etliche Situationen, in denen selbstfahrende Autos heute noch überfordert sind. Zudem hat sich in den bisherigen Versuchen gezeigt, dass sie oftmals nicht menschlich genug agieren und damit die Autofahrer aus Fleisch und Blut überraschen oder verwirren können.

Schwierig wird hier vor allem die Übergangszeit, in der maschinelle und menschliche Fahrer gleichzeitig auf den Straßen sind. Wären nur selbstfahrende Autos unterwegs, wäre die Situation mit einem Mal sehr viel einfacher zu handhaben. Schließlich könnten selbstfahrende Autos sogar untereinander kommunizieren und so den Verkehrsfluss automatisch selbst optimieren.

Mehr dazu in unserem Interview mit Prof. Dr. Hans-Dieter Burkhard von der Humboldt Universität Berlin in dieser Ausgabe.

Erkennen von Zusammenhängen in Medizin, Forschung und andernorts

Eine bereits heute erkennbare Stärke von künstlicher Intelligenz im Vergleich zum Menschen ist die Analyse von großen Datenmengen. Computer können beispielsweise Ärzte bei Diagnosen unterstützen. Sie könnten potenziell aber auch sehr hilfreich sein, um Forschungsergebnisse miteinander zu verknüpfen und auf diese Weise neue Erkenntnisse ermöglichen.

IBM erklärt, welche „amazing things“ ihr Watson in der Medizin leisten kann.

Ein Beispiel dafür ist IBMs „Watson“. Das System ist berühmt geworden, nachdem es zum Champion der Quizshow „Jeopardy“ wurde. Das eigentliche Ziel des Projekts ist es aber u.a., natürliche Sprache zu verstehen und so abzulegen und miteinander zu verknüpfen, dass es wiederum Schlussfolgerungen daraus ziehen kann. Ein praktischer Anwendungsfall wird in der Medizin gesehen: Watson könnte bei der Diagnose unterstützen, in dem es die Notizen der Ärzte und die Testergebnisse eines Patienten analysiert. Außerdem könnte es alle weiteren Daten aus der Krankenakte des Patienten und denen seiner Verwandten heranziehen und zugleich mit den Daten anderer Fälle vergleichen. Auf diese Weise könnte es den Kreis der möglichen Diagnosen eingrenzen.

Solche Aufgaben finden sich natürlich auch andernorts, wie beispielsweise im Bankensektor. Falk Hedemann hatte Watson und seine möglichen Einsatzgebiete in diesem UPLOAD-Artikel vorgestellt.

Fazit

Mit der KI ist es wie mit vielen anderen technologischen Entwicklungen: Am Anfang erscheinen sie sehr lange vergleichsweise unbedeutend. Fast unbemerkt schleichen sie sich nach und nach in unseren Alltag. Erst rückblickend erkennt man, wie sehr sich die Gesellschaft in den letzten zehn, zwanzig Jahren verändert hat.

Man denke an Mobiltelefone und tragbare Computer. Wer hätte in den 80ern schon vermutet, dass wir 30 Jahre später alle eine Kombination aus beidem haben würden, das bequem in unsere Hosentasche passt – und außerdem mit einem weltumspannenden Computernetzwerk verbunden ist. Die Einführung des iPhone kann man hier als den Zeitpunkt ansehen, an dem sich alles zusammengefügt hat.

Einen solchen Moment kann man sich auch bei der praktischen Anwendung der KI denken. Vorher aber wird es an vielen Stellen in unserem Alltag auftauchen. Das ist sogar heute bereits passiert.

Bildnachweis fürs Artikelfoto: © kantver, Fotolia.com

Artikel vom 18. Juli 2016