Alexa, Cortana, Siri & Co: Der Hype um Sprachassistenten erklärt

Amazons „smarter Lautsprecher“ Echo mit seinem Sprachassistenten Alexa hat sich vom Kuriosum zum Hype gewandelt. Neuester Streich: der Echo Show mit Display. Zugleich sind bereits viele großen Namen der Branche im gleichen Feld aktiv: Apple mit Siri, Samsung mit Bixby, Microsoft mit Cortana und Google mit seinem namenlosen Assistant. Facebooks Mark Zuckerberg programmierte sich seinen „Jarvis“ gar als Nebenbeiprojekt. Aber was ist dran am Thema? Haben diese Sprachassistenten das Zeug dazu, Online-Marketing und Websuche grundlegend zu verändern, wie manche Experten behaupten?

Mit dem „HomePod“ will nun auch Apple im Markt der Smartspeaker mitmischen. (Foto: Apple)

Wir haben diesen Artikel im Februar 2017 veröffentlicht und zuletzt im Juni 2017 aktualisiert.

Alexa und Echo: Amazons „iPod-Moment“

Rückblickend hatte Amazon mit dem ersten Echo wohl seinen „iPod-Moment“: Als Steve Jobs den MP3-Player 2001 vorstellte, war das Rätselraten zunächst groß und von Begeisterung keine Spur. Warum brachte Apple, das gerade erst mit Müh und Not der Pleite entkommen war, ausgerechnet ein solches Gerät heraus? Anfangs war der iPod auch kein großer Hit – aber er wurde letztlich zu einem und veränderte gemeinsam mit dem iTunes Music Store die Musikindustrie und ebnete Apples Weg hin zum iPhone.

Ebenso war die Berichterstattung über Amazons Echo zunächst sehr zurückhaltend. Amazon hatte sich gerade erst mit seinem Smartphone blamiert. Der Kindle hatte einiges an Dynamik eingebüßt und die neuen „Kindle Fire“-Tablets wurden allerorten auch nicht gerade als durchschlagender Hit angesehen. Warum, in aller Welt, brachte Amazon nun im Jahre 2014 einen Zylinder heraus, der praktisch ein smarter Lautsprecher mit Mikrofon war? Gab es nicht schon genug Wege, auf Amazon einzukaufen? Und wer wollte denn, bitteschön, so ein Gerät zu Hause haben, das praktisch nur eine einzige Funktion hatte?

Spulen wir einige Jahre vorwärts in die Gegenwart und Amazon hat den Echo mit dem Sprachassistenten Alexa in vielerlei Hinsicht schlau weiterentwickelt. Zum einen gibt es inzwischen weitere Versionen des Echo: den kompakten „Dot“, den mobilen „Tap“ und den „Show“ mit eingebautem Touchscreen. Zum anderen hat es sich zur Plattform entwickelt: Entwickler können Alexa neue Fähigkeiten beibringen („Skills“ genannt) und Hersteller können den Assistenten überall integrieren – sogar in Echo-Kopien. Etliche Geräte bis hin zu Autos sind inzwischen „Alexa ready“.

Warum Sprachassistenten so ein Hype sind

In diesem Video habe ich mir das Thema übrigens ebenfalls vorgenommen:

Aber woher kommt nun diese Begeisterung für Sprachassistenten und „Voice Search“? Die grundlegende Idee ist, dass sie uns einen Blick in die Zukunft geben. Dass wir in dieser oder sehr ähnlicher Form künftig überwiegend mit Computern interagieren werden – so wie wir es beispielsweise aus „Star Trek“ kennen. Und dass das eventuell eine so große Umwälzung wird wie Touchscreens, Apps oder das Mobile Web.

Tatsächlich gibt es eine eindeutige Tendenz, wenn man sich die Entwicklung von Benutzeroberflächen bei Computern anschaut: Sie nähern sich immer weiter dem an, wie Menschen miteinander und mit ihrer Umwelt interagieren. In den Anfangsjahren war das noch so abstrakt, dass es nur Spezialisten nach entsprechender Schulung verstanden. Display und Tastatur machten das im nächsten Schritt schon ein wenig einfacher, sofern man sich mit den notwendigen Kommandos vertraut machte. Die grafische Benutzeroberfläche wiederum brauchte zwar noch Eingewöhnung, versuchte aber viele Vorgänge bildhaft zu machen – zudem kann man hier im Zweifel herumprobieren. Mit Touchscreens reagierten die Geräte dann auf bereits bekannte Gesten wie Wischen und Tippen. Natürliche Sprache wäre nun in vielen Situation eine so verständliche wie effiziente Form der Bedienung.

Die Idealvorstellung ist dabei, dass der digitale Assistent uns genau so gut versteht, wie ein Mensch oder sogar besser. Zugleich weiß der elektronische Helfer alles, was das Internet weiß. Und er kennt uns so gut, dass er sich fehlende Informationen selbst erschließen kann. Eventuell kann er uns sogar Antworten liefern, bevor wir überhaupt gefragt haben.

Würde es tatsächlich so funktionieren, könnte das einen signifikanten Wandel auslösen. Viele Situationen, in denen wir bislang eine Suchmaschine wie Google oder eine App bemüht hätten, würden nun vom digitalen Assistenten abgedeckt.

Deshalb sehen manche Experten voraus, dass das Online-Marketing und hier nicht zuletzt die Suchmaschinen-Optimierung auf diesen Trend reagieren müssen. In unserer Befragung zu den SEO-Trends des Jahres wurde „Voice Search“ mehrfach genannt.

Warum zugleich Skepsis angebracht ist

Dabei sollte man diese theoretischen Überlegungen und die Begeisterung mancher Experten für die Potenziale nicht mit dem verwechseln, was wir heute haben. Kein Assistent versteht jeden Nutzer jederzeit. Kein Assistent versteht jede Fragestellung jederzeit richtig. Nicht in jeder Situation kann überhaupt eine einzige, allgemeingültige Antwort geliefert werden – und ist das nicht der Fall, wird es ohne Display dann doch schnell komplex für den Nutzer. Hier haben alle Firmen noch viel Arbeit vor sich.

Wir haben allerdings einen Punkt erreicht, an dem ein Produkt wie der Echo mit dem Assistenten Alexa bereits eine recht breite Käuferschicht erreichen kann. War der Echo zunächst nur der Liebling mancher Tech-Schreiberlinge und anderer Gadgetfans, findet er nun auch Einzug in andere, „normale“ Haushalte.

Dabei ist aus meiner Sicht noch immer offen, wie groß die Akzeptanz für ein solches Gerät letztlich sein wird. Mal ganz abgesehen von den Datenschutzfragen, die man sich hierzulande mehr stellt als im Silicon Valley. Schließlich muss so ein Gadget wie der Echo zwangsläufig zuhören und verarbeitet das Gehörte oftmals in der nebulösen „Cloud“. In einem Fall wehrte sich Amazon dagegen, solche Aufzeichnungen herauszugeben.

Insofern sind Alexa und Co aus meiner Sicht gerade auf dem „Gipfel der überzogenen Erwartungen“ in Gartners berühmten Hype-Cycle angekommen oder nähern sich ihm zumindest in schnellem Tempo. Nächster Halt: das „Tal der Enttäuschungen“. Ist das durchschritten, werden Alexa, Siri, Cortana und andere den Einzug in unseren Alltag finden. Ihre Schwächen werden die Entwickler mit der Zeit ausbügeln können. Es werden neue Anwendungsfelder auftauchen, an die wir heute noch gar nicht denken. Und eher wir uns versehen, sprechen wir eben doch mit unseren Geräten, auch wenn uns das heute noch seltsam und ungewohnt vorkommt.

Zugleich bin ich aber derzeit sehr skeptisch, dass Sprachbefehle andere Formen der Bedienung zum Beispiel über Bildschirme komplett ersetzen werden. Eher sollte man sie als Ergänzung ansehen.

Beispiele für Sprachassistenten

Praktisch alle großen Namen der Branche haben inzwischen ihren eigenen Assistenten. Das Thema ist einfach zu interessant und das Potenzial zu verführerisch. Hier ein Blick auf den aktuellen Stand der Dinge:

Amazon Alexa

Mike George, Vice President für Echo, Alexa und den Appstore bei Amazon. Er zeigt hier einen „Echo Tap“ bei der TechCrunch Disrupt NY 2016. (Foto: Noam Galai/Getty Images for TechCrunch. Lizenz: CC BY 2.0)

Alexa ist der Sprachassistent, der Amazon Echo ist die hauseigene Hardware dazu. 2014 hat Amazon beides erstmals der Öffentlichkeit gezeigt. Der Echo ist dabei ein mit dem Internet verbundener Lautsprecher inklusive mehrerer Mikrofone. Per Sprachbefehl kann er beispielsweise Musik spielen, die Wettervorhersage bekannt geben oder natürlich auch bei Amazon bestellen. Das neueste Modell namens Echo Show hat einen Touchscreen und eine Webcam eingebaut. Darüber sind nun auch Videoanrufe möglich, „Alexa Calling“ genannt.

Das System ist über „Skills“ („Fähigkeiten“) erweiterbar: Drittanbieter können so Alexa weitere Fähigkeiten beibringen. Auf diese Weise kann der Echo auch zum zentralen Hub fürs Smart Home werden. Die Zahl dieser Skills hat sich zwischen Juni und November 2016 erheblich gesteigert: von 1.000 auf 5.000.

Lohnt sich die Entwicklung eines solchen Skills? Dazu haben wir ein kurzes Interview mit den Machern der „Bring!“-App geführt – siehe unten.

Alexa ist aber nicht im Echo gefangen: Über Amazons „Alexa Voice Service“ können andere Hersteller den Assistenten integrieren – kostenlos. Das hat zuletzt beispielsweise dazu geführt, dass ein Top-Android-Smartphone von Huawei in den USA mit Alexa vorinstalliert auf den Markt kommt. Das dürfte Google wenig gefallen, allerdings stellen sie ihren Konkurrenten „Google Assistent“ nur nach und nach zur Verfügung. Lenovo wiederum brachte mit dem „Smart Assistant“ gar einen waschechten Echo-Klon heraus, der 50 US-Dollar weniger kostet als das Vorbild.

Amazon kommt es ganz offensichtlich darauf an, sich so schnell wie möglich einen Platz in diesem Markt zu sichern. Denn nur so können sie selbst bestimmen, wie ihre E-Commerce-Angebote integriert werden.

Apple Siri

Inzwischen ist Siri auch auf dem Mac angekommen. (Foto: Apple)

Bereits 2011 hat Apple seinen Sprachassistenten Siri vorgestellt. Damals war er noch ein exklusives Feature des iPhone 4S. Siri wurde aber nicht von Apple selbst entwickelt, sondern aufgekauft. Geplante Versionen von Siri für Android und BlackBerry wurden im Zuge dessen eingestampft. Inzwischen ist Siri dafür auf allen Plattformen des kalifornischen Unternehmens vertreten – von der Armbanduhr bis zum Desktop-Mac.

Neuester Streich: der smarte Lautsprecher „HomePod“. Mit ihm möchte das Unternehmen wohl an den Erfolg es iPod anknüpfen. Er wird in erster Linie als kompakter, gut klingender Lautsprecher vermarktet, der einen digitalen Musikexperten eingebaut hat – Siri eben. Aber Siri kann auch alles, was der Assistent sonst kann, also Antworten auf diverse Fragen geben oder auch das Smart Home steuern, sofern es auf Apples HomeKit setzt. Der HomePad kommt hierzulande aber noch nicht so bald auf den Markt. Derzeit soll er im Dezember 2017 in den USA, Großbritannien und Australien auf den Markt kommen.

Ähnlich wie bei Alexa, können Dritthersteller inzwischen ihre Apps mit Siri verknüpfen. Allerdings ist das derzeit nur sehr eingeschränkt in einigen bestimmten Kategorien von Apps möglich.

Facebook Jarvis

Jarvis ist (noch) kein fertiges Produkt von Facebook. Vielmehr ist es eine Fingerübung von Facebook-Gründer und -CEO Mark Zuckerberg. Was man halt so in seiner Freizeit macht, wenn man das größte Social Network der Welt erschaffen hat. Ihm ging es nach eigenen Worten darum, etwas über den Stand der Dinge bei der Künstlichen Intelligenz zu lernen. Über Jarvis kann er sein Smart Home kontrollieren und der Assistent soll außerdem mit der Zeit etwas über die Gewohnheiten und Vorlieben des Benutzers lernen. Anstatt wie bei Alexa neue „Skills“ manuell zu installieren, soll Jarvis beispielsweise selbst herausfinden, wie er bislang unbekannte Aufgaben erledigt. Diese Kombination von Sprachassistent und selbstlernender K.I. finde ich persönlich sehr spannend. Denn im Grunde wollen die Nutzer keine Funktionen installieren, sondern jederzeit und sofort sinnvolle und hilfreiche Antworten auf jede denkbare Frage bekommen.

Offiziell ist Jarvis derzeit nur ein privates Projekt von Mark Zuckerberg. Er denkt nach eigenen Worten aber darüber nach, den Quellcode frei zur Verfügung zu stellen (alias „Open Source“). Derzeit sei das dafür aber alles zu direkt mit seinem Zuhause und den dort vorhandenen Geräten verbunden. Alternativ könnte Jarvis auch die Basis für ein neues Produkt sein.

Google Assistant

Sprachsuche ist schon länger ein Thema bei Google und seit 2012 hatte es im digitalen Assistenten Google Now seine Heimat gefunden. Mit dem Google Assistant soll es nun auf die nächste Stufe und auf Augenhöhe mit der Konkurrenz gebracht werden. Dabei gibt es auch eine Entsprechung zu Amazons Echo, hier Google Home genannt.

Zunächst konnten nur wenige Nutzer den neuen Assistenten ausprobieren: Er war neben dem Home u.a. den „Pixel“-Smartphones von Google selbst vorbehalten. Im Februar 2017 hat Google dann angekündigt, es auf alle Android-Smartphones ab Version 6.0 („Marshmallow“) zu bringen. Wer auf den Sprach-Part verzichten kann, findet eine Version des Assistenten derzeit in Googles Chat-App Allo.

Was Amazon „Skills“ nennt, heißt hier dann „Actions on Google“. Darüber können Entwickler also Drittanbieter-Funktionen für den Assistenten entwickeln.

Microsoft Cortana

Microsoft hat seinen Assistenten Cortana erstmals 2014 gezeigt. Benannt wurde er nach einer künstlichen Intelligenz in der „Halo“-Spielserie. Cortana kam zum ersten Mal in Windows 10 zum Einsatz und ist inzwischen auch für Android- und iOS-Geräte verfügbar sowie auf der Xbox One. Die Funktionalität ist mit dem vergleichbar, was bei der Konkurrenz schon beschrieben wurde. Dabei ist Cortana eng mit Microsofts Browser Edge sowie seiner Suchmaschine Bing verknüpft.

Cortana ist neben Chatbots ein Teil dessen, was Microsoft-CEO Satya Nadella unter dem Begriff „Konversation als Plattform“ zusammengefasst hat. Microsoft wolle „die Kraft der menschlichen Sprache“ nehmen und sie an vielen Stellen anwenden. Das hatte er auf der Build-Konferenz 2016 in San Francisco in seiner Keynote erklärt. Er sieht Sprache als neue Form der Benutzeroberfläche. „Bots sind die neuen Apps, digitale Assistenten sind Meta-Apps“, sagte er.

Ein Jahr später zeigte Microsoft nun ebenfalls eine Schnittstelle für Entwickler („Cortana Skills Kit“). Künftig soll Cortana auch ebenso wie Alexa von anderen Herstellern für ihre Geräte genutzt werden können.

Harman-Kardon zeigt außerdem seinen Echo-Konkurrenten „Invoke“. Der smarte Lautsprecher wird für den Herbst 2017 erwartet. Und Microsoft arbeitet mit „HomeHub“ außerdem daran, jedes Windows-Gerät zu einem Echo-Konkurrenten zu machen. Mehr dazu hier bei The Verge.

Samsung Bixby (Viv)

Bixby ist eines der Vorzeigefeatures von Samsungs aktuellem Top-Smartphone Galaxy S8. Er geht auf die Firma Viv zurück, die Samsung aufgekauft hatte – so wie Apple einst Siri gekauft hat. Damit nicht genug der Parallelen: Die Macher von Viv gehörten ursprünglich zum Siri-Team. Sie wollen dabei (natürlich) vieles besser machen als Siri. So sind externe Integrationen ähnlich wie Alexas Skills auch hier vorgesehen. Vor allem aber soll der Assistent mit komplexen Anfragen zurechtkommen. Das Lieblingsbeispiel der Macher ist die Anfrage: „Auf dem Weg zu meinem Bruder möchte ich einen günstigen Wein kaufen, der gut zu Lasagne passt.“ Sollte Bixby auf solche Fragen tatsächlich zuverlässig sinnvolle Antworten liefern können, wäre das eine Sensation.

Beispiel Bring!-App: Lohnt es sich, einen „Alexa Skill“ zu entwickeln?

Bei der Bring!-App dreht sich alles um Einkaufslisten. (Quelle: Bring!)

Seit Februar ist die Bring!-App im „Skill Store“ vertreten. Die App selbst ist ein Mix aus Shopping- und Productivity-App. Nutzer können auf ihrem Smartphone, Tablet und der Smartwatch Einkaufslisten erstellen, mit anderen teilen und so gemeinsam den Lebensmitteleinkauf planen. Gegründet wurde die Bring! Labs AG im April 2015 von den drei Schweizern Marco Cerqui, Sandro Strebel und Dominic Mehr. Das Unternehmen sitzt in Zürich und hat derzeit acht Mitarbeiter.

Ein Hackathon war dabei der Startschuss für die Entwicklung des Alexa Skills, „um die Kreativität der beiden Developer Jürg Egli und Sandro Strebel anzukurbeln“, wie es im Pressetext dazu heißt. „Nachdem wir Alexa kennengelernt und einen ersten Prototyp entwickelt hatten, waren schon einige wichtige Insights zusammengekommen: Das Development einer sprachgesteuerten App folgt nämlich ganz anderen Maßstäben als jenes einer grafischen App“, erklärt Sandro Strebel darin. Er verweist darauf, dass man die Bedienung beispielsweise nicht mit visuellen Hinweisen („Coachmarks“) erklären kann. Außerdem gibt es hier eben keine sichtbaren Optionen wie bei einer grafischen Benutzeroberfläche.

Die größte Herausforderung sei der Entwurf von möglichst natürlichen Dialogen gewesen. „Als Entwickler musste ich mir deshalb konkrete Szenarien ausdenken, was könnten User fragen? Und was soll Alexa darauf antworten?“ sagt Jürg Egli. Um die Nutzer schrittweise an den Funktionsumfang zu gewöhnen und sich wiederholende Antworten zu vermeiden, lehrte Bring! Alexa verschiedene Versionen der Bestätigungen und Nachfragen.

Schrittweise umdenken mussten die Entwickler auch für den Fall, dass eine Interaktion nicht klappt oder Alexa einen Listennamen nicht versteht. In solchen Situationen wurde der Skill so gestaltet, dass Alexa gemeinsam mit dem User durch die bestehenden Listen geht und für jede fragt, ob sie als Standardliste gesetzt werden soll.

Im Ergebnis ordnen die Bring!-Developer den Aufwand für die Skill-Entwicklung viel geringer als für eine konventionelle App ein. Vom bestehenden Backend konnte bereits viel für den Skill genutzt werden.

Die Entwickler des Amazon Echo Skills für Bring: Sandro Strebel und Jürg Egli (Quelle: Bring!)

In Ergänzung zur Pressemitteilung haben wir den Machern noch einige Rückfragen gestellt. Sie wurden beantwortet von Dominic Mehr, Chief Content Officer und Marketing-Experte von Bring!

Wie lange hat die Entwicklung der ersten Version des Skills gedauert?

Insgesamt blicken wir auf rund einhundert Mannstunden unserer beiden Entwickler zurück. Wir haben die Aufgaben so aufgeteilt, dass wir daneben noch genügend Zeit für die operativen Aufgaben hatten und sich die Entwicklung des Skills trotzdem nicht zu sehr in die Länge zog. Wenn sich nur ein Entwickler neben dem Tagesgeschäft darum gekümmert hätte, hätte es zu lange gedauert, bis wir erste Resultate und damit eine Entscheidungsgrundlage für die weiteren Schritte in dem Bereich gehabt hätten.

Aufgeteilt haben wir Aufgaben wie das Abklären technischer Fragen, z.B. Account-Verknüpfung, Entwerfen und Konfigurieren der Benutzerinteraktion. Dazu kam das Ermitteln möglichst guter Beispielwerte für geeignete Listennamen, Artikel oder Mengenangaben, mit denen Alexa trainiert sowie das Entwickeln der eigentlichen Skill-Logik.


Wie viel Zeit haben Sie bislang in Bugfixes, Verbesserungen und Erweiterungen investiert? Welchen Aufwand erwarten Sie da für die Zukunft? Ist das vergleichbar mit einer App, die ja neben dem inititalen Aufwand auch immer ein Budget für Updates und Weiterentwicklungen benötigt?

Bisher hat sich der Aufwand für Bugfixes in Grenzen gehalten und liegt unter einer Woche. Wir erhalten aber konstruktive Rückmeldungen von Benutzern und berücksichtigen diese auch, wenn etwa Icons in der App nicht angezeigt werden. Deshalb erwarten wir schon einen gewissen laufenden Aufwand für die Betreuung der Benutzer und das Beheben von Fehlern. Wir müssen auch sicherstellen, dass neue Features der App – sofern für Sprachsteuerung sinnvoll – in Alexa nutzbar sind. Wir rechnen hier aber mit einem kleineren Implementierungsaufwand für Alexa als für unsere Main-Apps.

Können Sie mit Zahlen deutlicher machen, wie viel Ihnen der Skill gebracht hat? Auf welche KPIs kam es Ihnen da besonders an?

Unsere Begeisterung für Amazon Alexa ist nicht primär durch KPIs getrieben, sondern mehr von unserer Vision. Wir sind der Überzeugung, dass digitale Assistenten einen festen Platz in unserer Zukunft haben werden. Darum möchten wir da von Anfang an dabei sein. Gleichzeitig geben uns die KPIs recht: Nach kurzer Zeit im Skill Store verwenden bereits über 20.000 Personen den Bring! Skill für Alexa.


In den Reviews auf Amazon beschweren sich manche, dass man zuerst Bring! aktivieren muss, bevor man etwas auf einer Liste ergänzen kann. Ist das eine Limitierung auf Seiten Alexas oder ist das etwas, woran Sie noch arbeiten können?

Das ist aktuell eine Limitierung auf Seiten von Alexa und wir haben das gegenüber Amazon bereits angesprochen. Wir versuchen, unseren Benutzern von Anfang an aufzuzeigen, wie sie den Bring! Skill starten können und halten die Interaktionen bewusst so einfach wie möglich.

Nach Ihrer Erfahrung bisher: Wann eignet sich die Entwicklung eines Alexa Skills (eher) nicht und wann ergibt sie Sinn?

Amazon selbst gibt im Skills Kit Hinweise dafür, wie den Usern Informationen präsentiert werden sollten. Bei sprachlicher Interaktion kann sich der Benutzer zur Orientierung nicht auf Bilder und Grafiken verlassen. Der Skill muss dem Benutzer über klare prägnante Aussagen die nötige Orientierung geben. Das hat aber Grenzen, weil sich der Benutzer ohne Nachlesen nur kleine Informationseinheiten merken kann. Eine Dating App, die nur über Sprachbefehle funktioniert, wäre beispielsweise eher nicht geeignet für einen Alexa Skill.

Fazit

Zwischen einer gelungenen Tech-Demo und einem erfolgreichen Produkt für Konsumenten liegt immer noch eine lange Wegstrecke, die nicht unterschätzt werden darf. Nicht selten sind Vorführungen auf einer Bühne komplett geskriptet und nicht so „live“ wie sie scheinen. Zudem wissen die Macher dort natürlich ganz genau, was sie wie sagen sollen, damit das gewünschte Ergebnis herauskommt. In der Wirklichkeit muss der Sprachassistent aber mit Dialekten, Umgebungsgeräuschen und sprachlichen Eigenheiten klar kommen, schlechte Internetverbindungen verkraften oder Fragen beantworten, die die Software generell nur so halb verstanden hat oder die so mehrdeutig sind, dass sich keine simple Antwort geben lässt.

Dennoch scheint klar: Der Fortschritt bei der künstlichen Intelligenz war in den letzten Monaten teils so rasant und beeindruckend, dass sich die Fähigkeiten von Alexa, Siri, Cortana und anderen schon bald sehr spürbar verbessern können. Und dann wird es tatsächlich fürs Online-Marketing und hier nicht zuletzt für die Suchmaschinen-Optimierung interessant.

Die Frage nach dem Datenschutz dieser stets zuhörenden Assistenten steht dabei noch einmal auf einem ganz anderen Blatt und würde diesen Artikel sprengen. Erwähnen muss man es aber dennoch.

Weitere Artikel zu:

Artikel vom 05. Mai 2017