Außerdem: Apple Intelligence, Microsoft Recall, Google AI Overviews sowie weitere neue Tools, interessante News und lesenswerte Artikel ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏
Smart Content Report #12
Wenn ChatGPT keine guten Antworten liefert …
… dann probiere es doch einmal mit einer Alternative! Das jedenfalls habe ich gerade dieser Tage wieder festgestellt. Am konkreten Beispiel: Ich hatte mir in den Kopf gesetzt, einen KI-Assistenten als Programmierhilfe zu nutzen. Vor Jahren hatte ich versucht, mich ins Thema iOS-Development einzuarbeiten. Antreiber war vor allem eine Idee für eine recht simple Apple-Watch-App. Ich lernte damals einige Wochen fleißig auf Treehouse und dachte, ich wäre auf einem guten Weg – bis ich eines der simpel scheinenden Codebeispiele nach meinen Wünschen anpassen wollte und es einfach nicht hinbekam. Letztlich gab ich es auf, denn so wichtig war es mir am Ende auch wieder nicht. Auslöser für den neuen Anlauf war die Veröffentlichung des KI-Assistenten Codestral des französischen Unternehmens Mistral. Den installierte ich kurzerhand via LM Studio auf meinem Mac und legte los. Tatsächlich machte ich gute Fortschritte. Ich war begeistert. Aber dann fand ich mich in einer Sackgasse, denn Codestrals Wissensstand war entweder nicht aktuell oder die Anleitung zu unklar, um mir weiterzuhelfen. In der Folge probierte ich andere Assistenten aus. Darunter GPT-4 Turbo, Google Gemini 1.5 Pro und letztlich Anthropics Claude 3 Opus. Ein Logikproblem im Aufbau meiner Watch-App schien dabei alle Assistenten zum Stolpern zu bringen, bis Claude 3 es im Handstreich löste. Schon konnte ich weitermachen. Ähnlich ergeht es mir mit Texten. Ich nutze, wie früher schon erwähnt, das browserbasierte TypingMind, um mehrere Assistenten unter einem Dach zu vereinen. Das macht das Experimentieren besonders einfach. Dabei habe ich beispielsweise festgestellt, dass Gemini 1.5 Flash bisweilen besser textet als Gemini 1.5 Pro. Und das, obwohl die „Flash“-Variante eigentlich vor allem auf Geschwindigkeit getrimmt ist, während die „Pro“-Variante besonders leistungsfähig sein soll. Es kommt eben doch immer auf den Einzelfall an. Übrigens lohnt es sich, innerhalb von ChatGPT mit den verschiedenen Varianten zu experimentieren. Zum heutigen Stand stehen dort zur Verfügung: GPT-3.5, GPT-4 Turbo und das noch brandneue GPT-4o. Dabei gilt nicht, dass immer das neueste Tool das beste ist. GPT-4o wird etwa dafür kritisiert, dass es Vorgaben in Prompts nicht (mehr) so gut folgt wie noch GPT-4 und bisweilen unnötig lange Antworten gibt. Dafür hat GPT-4o seine Stärke darin, mit Eingaben in verschiedenen Medienformaten zurechtzukommen. Kurzum: Experimentieren lohnt sich. Was an der einen Stelle nicht klappt, kann andernorts plötzlich wie von Zauberhand funktionieren. - Jan Tißler, UPLOAD Magazin P.S.: In der allerersten Ausgabe des Smart Content Reports habe ich generelle Tipps für bessere Ergebnisse mit ChatGPT gegeben.
|
|
ANZEIGE
neuroflash: Die Nr.1 KI Content Suite für Marketing Teams
|
|
neuroflash ist die führende KI-Software zur Contentgenerierung im deutschsprachigen Raum. Das ist auch kein Wunder: Kein anderes Tool hat eine so hohe Qualität bei deutschen Texten wie das Angebot aus Hamburg. Schließe dich über 1 Million professionellen Content Creators und Teams an und transformiere deine Arbeit mit KI!
|
|
|
Möchtest du hier erscheinen?
Schalte eine Anzeige in den Newslettern des UPLOAD Magazins und erreiche über 4.000 interessierte Leser:innen.
|
|
|
|
TOOLS
Apple zeigt seinen Ansatz für KI
Nachdem bereits Google und Microsoft gezeigt haben, wie sie die neue KI-Generation in ihre Produkte und Angebote integrieren, war nun Apple an der Reihe. Eines wurde dabei schnell deutlich: Apple will, dass seine KI-Funktionen nicht nur nützlich und leicht anzuwenden sind, sondern auch die Privatsphäre der Nutzer schützen. So besteht das „Apple Intelligence“ genannte Featureset aus drei Schichten: - Viele einfache Aufgaben finden direkt auf den Geräten statt. Dafür hat Apple kompakte KI-Modelle geschaffen, die ihren Funktionsumfang je nach Aufgabenstellung schnell über „Adapter“ (siehe Glossar unten) erweitern.
- Ist das lokale KI-Modell überfordert, holt es sich Hilfe aus Apples eigener Cloud. Hier hat das Unternehmen unter dem Namen „Private Cloud Compute“ ein Umfeld mit zahlreichen Sicherheitsmaßnahmen geschaffen, damit die Nutzerdaten geschützt sind.
- Optional gibt es eine Integration mit ChatGPT. Hier müssen die Nutzer jeweils manuell bestätigen, dass sie die Anfrage dorthin weiterleiten wollen. Ein Account dort ist nicht notwendig und diese Chats sollen auch nicht fürs KI-Training verwendet werden. Eine Integration anderer Angebote wie Google Gemini oder Anthropic Claude ist denkbar, aber nicht konkret angekündigt.
Als Funktionen stehen etwa das Korrekturlesen von Texten, Zusammenfassungen von E-Mails oder auch ein simpler Bildgenerator zur Verfügung. Siri soll zudem künftig Aufgaben über Apps hinweg erledigen können. Alles das wird allerdings zunächst nur für English in den USA erscheinen. Zudem braucht man ein recht aktuelles Apple-Gerät: Dazu gehören das aktuelle iPhone 15 Pro, sowie iPads und Macs mit M-Chips. Und nicht zuletzt werden Funktionalitäten erst nach und nach hinzugefügt. Apple ist hier sehr vorsichtig. Angesichts der Fehltritte von Google und Microsoft mit ihren KI-Angeboten (siehe unten) scheint das auch angebracht. Allerdings können wir zum heutigen Stand noch nicht einschätzen, wie gut Apple Intelligence in der Praxis funktionieren wird. Es würde mich überraschen, wenn dort alles glatt liefe … Interessanterweise sollen alle diese Funktionen kostenlos zur Verfügung stehen, inklusive ChatGPT. Ich persönlich hätte damit gerechnet, dass Apple Intelligence Teil der „Apple One“-Abos wird. Das Unternehmen setzt hier also offenbar vor allem darauf, dass die neuen KI-Funktionen den Hardware-Verkauf ankurbeln. Hier der Abschnitt in Apples Keynote, der dieses Thema behandelt:
|
|
Weitere Tools in aller Kürze
Kling, ein neuer KI-Videogenerator der chinesischen Firma Kuaishou Technology, beeindruckt mit recht realistischen Videos in hoher Auflösung, die über Texteingabe erstellt werden können. Obwohl Kling derzeit nur mit einer chinesischen Telefonnummer verfügbar ist, setzt es andere Anbieter wie OpenAI mit seinem offenen Beta-Ansatz unter Druck: OpenAI etwa hält seine Video-KI Sora weiter unter Verschluss. Perplexity hat eine neue Funktion namens „Pages“ eingeführt, die mit Hilfe von KI automatisch Berichte zu einem Thema produziert. Pages erstellt dafür eine benutzerdefinierte Webseite, für die sie Informationen recherchiert und den Text schreibt. Es gibt allerdings auch Kritik: Das Feature kopiere Inhalte von Nachrichtenseiten wie Forbes, CNBC und Bloomberg, ohne die Quellen ausreichend kenntlich zu machen, schreibt Forbes. Die neue Streaming-Plattform „Showrunner“ des Studios Fable ermöglicht es Nutzern, mit KI-Hilfe eigene Serienepisoden zu erstellen, indem sie Szenen mit kurzen Textanweisungen generieren und anschließend zu Episoden zusammenfügen. Das Ziel ist ambitioniert: Showrunner soll das Netflix für KI-generierte Inhalte werden und Zuschauern die Möglichkeit geben, aktiv an der Produktion teilzunehmen. Die Suchmaschine You.com ermöglicht es Nutzern, eigene, personalisierte KI-Assistenten über Top-Sprachmodelle wie GPT-4 oder Llama 3 zu erstellen. So können Nutzer die KI an ihre individuellen Bedürfnisse anpassen. Anthropic erweitert seinen KI-Chatbot Claude um eine Funktion, mit der sich individuelle Lösungen wie E-Mail-Assistenten oder Einkaufs-Bots erstellen lassen. Durch die Anbindung an beliebige externe Schnittstellen (APIs) und mit etwas Programmierkenntnissen lassen sich so offenbar vielseitige KI-Assistenten entwickeln, die beispielsweise personalisierte Produktempfehlungen geben, Kundenanfragen beantworten oder visuelle Daten analysieren können. Adobes neues AEP AI Assistant will Unternehmen helfen, Kundendaten besser zu nutzen und ihre Marketingaktivitäten zu optimieren. Das KI-Tool beantwortet Fragen zu Kundensegmenten, liefert Einblicke in Echtzeit und erstellt auf Anfrage personalisierte Marketingmaterialien, inklusive Texten, Designs und Bildern. Nvidia stellt mit NIM (Nvidia Inference Microservices) eine neue Technologie vor, die es Entwicklern ermöglichen soll, KI-Anwendungen innerhalb von Minuten statt Wochen bereitzustellen. Diese Microservices bieten optimierte Modelle als Container, die sich in Clouds, Rechenzentren oder auf Workstations einsetzen. Unternehmen sollen damit generative KI-Anwendungen für Copiloten, Chatbots und mehr einfach und schnell erstellen können. Über 40 Microservices unterstützen verschiedene KI-Modelle, darunter Meta Llama 3, Google Gemma und Microsoft Phi-3. Nvidia hat mit „Blackwell“ außerdem eine neue Architektur für KI-Anwendungen vorgestellt. Diese soll die Effizienz von Rechenzentren deutlich steigern und die Entwicklung neuer KI-Lösungen beschleunigen. Die neuen Systeme, die auf Blackwell basieren, werden von zahlreichen Herstellern wie Asus, Gigabyte und Supermicro angeboten und sollen sowohl für Cloud-Anwendungen als auch für lokale Rechenzentren geeignet sein. Intel hat mit dem „Lunar Lake“-Prozessor einen völlig überarbeiteten Laptop-Chip für KI-Anwendungen vorgestellt, der ohne separate Speichermodule auskommt und stattdessen bis zu 32 GB LPDDR5X-Speicher direkt im Chippaket integriert. Durch zahlreiche Optimierungen verspricht Intel im Vergleich zum Vorgänger Meteor Lake bis zu 14 Prozent mehr CPU-Leistung bei gleichem Takt, 50 Prozent mehr Grafikleistung und bis zu 60 Prozent längere Akkulaufzeiten. Intel stellt außerdem den neuen „Xeon 6“-Prozessor vor, der Rechenzentren modernisieren und Enterprise-AI-Workloads bewältigen soll. Mit dem neuen Raspberry Pi AI Kit für 70 US-Dollar können Nutzer KI-Anwendungen für visuelle Aufgaben mit dem Kleinstcomputer umsetzen. Das Kit ermöglicht etwa Objekterkennung, Segmentierung und Posenschätzung in Echtzeit und mit geringem Stromverbrauch, wodurch sich der Raspberry Pi 5 für lokale KI-Anwendungen eignen könnte. Scale AI veröffentlicht erstmals Ranglisten für große Sprachmodelle (LLMs), die deren Leistung in spezifischen Anwendungsbereichen wie generative KI-Programmierung, Anweisungsbefolgung, Mathematik und Mehrsprachigkeit bewerten. OpenAIs GPT-Modelle belegen in drei der vier Bereiche den ersten Platz, während Anthropics Claude 3 Opus in der vierten Kategorie die Spitzenposition einnimmt.
ElevenLabs, ein KI-Startup für Sprachsynthese, hat mit „Sound Effects“ ein neues Produkt vorgestellt, mit dem sich durch einfache Texteingabe Audiosamples erstellen lassen. Das Tool, das in Zusammenarbeit mit Shutterstock entwickelt wurde, soll Kreativschaffenden aus verschiedenen Bereichen wie Film, Fernsehen, Videospielen und Social Media dabei helfen, ihre Inhalte mit interessanten und passenden Klanglandschaften zu verbessern, ohne dafür aufwendig Aufnahmen machen oder Lizenzen erwerben zu müssen. Stability AI veröffentlicht mit „Stable Audio Open“ ein neues KI-Modell zur kostenlosen Erstellung von Sounds und Musikstücken mit bis 47 Sekunden Länge. Allerdings ist es aufgrund des Trainingsmaterials auf englischsprachige Beschreibungen und westliche Musikstile beschränkt. Das KI-Modell Mars5 von Camb AI ermöglicht realitätsnahes Klonen von Stimmen in über 140 Sprachen und kombiniert dabei Stimmklonung und Text-to-Speech in einer Plattform. Das Unternehmen behauptet, dass Mars5 besonders gut darin sei, emotionale Nuancen in Sprache zu erfassen, was es ideal für Anwendungen wie Sportkommentare und Filme mache. Die neue Plattform „AI Studio“ von Writer ermöglicht es Unternehmen, mit Hilfe des „Writer Frameworks“ und ohne Programmierkenntnisse eigene KI-Anwendungen zu entwickeln. Damit positioniert sich Writer als zentrale Anlaufstelle für Unternehmen, die das Potenzial generativer KI im Arbeitsalltag nutzen wollen. Das französische KI-Startup Mistral bietet neue Möglichkeiten zur Anpassung seiner generativen Modelle, darunter kostenpflichtige Tarife und ein neues Software Development Kit (SDK). Damit können Entwickler und Unternehmen die Modelle für spezifische Anwendungsfälle optimieren. Microsoft stellt seinen GPT Builder für Privatanwender bereits drei Monate nach Einführung wieder ein, da das Unternehmen die weitere Entwicklung des Dienstes als nicht wirtschaftlich betrachtet. Nutzer können ihre Daten bis zum 14. Juli sichern, danach werden alle GPTs und zugehörigen Informationen gelöscht.
|
|
News
Microsoft rudert bei umstrittener„Recall“-Funktion zurück
Microsoft hat seine Pläne für die neue Windows-Funktion „Recall“ zurückgeschraubt. Ursprünglich sollte Recall automatisch aktiviert sein und Nutzeraktivitäten im Hintergrund aufzeichnen, um sie für KI-Anwendungen nutzbar zu machen. Nach heftiger Kritik von Datenschützern und Sicherheitsforschern wird Recall nun optional. Zudem wurden neue Sicherheitsmaßnahmen eingeführt, die den Zugriff auf die gespeicherten Daten erschweren und eine Authentifizierung erfordern. Trotz dieser Änderungen warnen Experten vor möglichen Risiken, da die gesammelten Daten für Angreifer zugänglich bleiben könnten. Siehe dazu Berichte von Wired, The Verge, VentureBeat.
|
|
Google reagiert auf Kritik an „AI Overviews“
Google räumt Fehler bei seinen neuen KI-Zusammenfassungen („AI Overviews“) ein, die nach Aussagen des Unternehmens auf fehlerhaften Interpretationen von Suchanfragen und Internetquellen beruhten. Google arbeitet an Verbesserungen, betont aber zugleich, dass die Genauigkeit der KI-Zusammenfassungen mit herkömmlichen Suchergebnissen vergleichbar sei. Das wirft allerdings nach meiner Einschätzung eher ein schlechtes Licht auf die Suchergebnisse … Zugleich scheint Google die AI Overviews deutlich seltener auszuliefern, wie eine Analyse von BrightEdge nahelegt. Als sie noch in der Testphase waren, erschienen sie bei 84 Prozent der Suchanfragen, derzeit nur noch bei 15 Prozent.
|
|
Weitere News in aller Kürze
Adobe hat auf die Kritik an seinen Nutzungsbedingungen reagiert und versichert seinen Kunden, dass ihre Dateien weder zum Trainieren von KI verwendet noch die Eigentumsrechte daran verletzt werden. Meta möchte offenbar Inhalte von Instagram und Facebook nutzen, um seine KI-Modelle zu trainieren. Europäische Nutzer können der Verwendung ihrer Daten für KI-Training widersprechen, müssen das aber aktiv beantragen. Die Formulierung von Meta in der entsprechenden E-Mail ist zudem vage und suggeriert, dass die Nutzer einen Grund für ihren Widerspruch angeben müssen. Die britische Datenschutzbehörde und die Europäische Kommission haben inzwischen Ermittlungen eingeleitet, um die Rechtmäßigkeit dieser Vorgehensweise zu prüfen. Das französische Startup Mistral AI sichert sich in einer Finanzierungsrunde 640 Millionen Dollar und erreicht damit eine Bewertung von fast 6 Milliarden Dollar. Mit dem frischen Kapital will Mistral seine Ressourcen für die Entwicklung von Open-Source-KI-Modellen ausbauen und im globalen Wettbewerb mit OpenAI und Anthropic mithalten. Das Tribeca Festival zeigt dieses Jahr erstmals Kurzfilme, die komplett mit OpenAIs kommender Video-KI Sora erstellt wurden. Fünf Filmemacher präsentieren ihre mit Sora generierten Werke und diskutieren die neue Technologie im Rahmen des Festivals. Eine neue Umfrage von McKinsey zeigt, dass bereits 65% der Unternehmen regelmäßig Generative AI einsetzen und die Mehrheit erwartet, dass diese Technologie zu signifikanten Veränderungen in ihren Branchen führen wird. Allerdings haben 44% der Befragten auch negative Folgen durch den Einsatz von Gen AI erlebt, wie z.B. ungenaue Ergebnisse oder Cybersicherheitsprobleme, weshalb Experten betonen, dass verantwortungsvolle KI-Praktiken von Anfang an berücksichtigt werden müssen. Kalifornien will strenge Sicherheitsregeln für Künstliche Intelligenz einführen, darunter einen „Kill Switch“ und Meldepflichten für Entwickler. Kritiker warnen vor Innovationshemmnissen, übertriebener Bürokratie und negativen Auswirkungen auf Open-Source-Modelle, die den Technologiesektor im US-Bundesstaat schwächen könnten. Forscher erzielen große Fortschritte bei der Entwicklung von 1-Bit-LLMs, die trotz deutlich geringerem Speicherbedarf und Energieverbrauch eine ähnliche Leistung wie ihre größeren Pendants erreichen können. Diese Entwicklung könnte die Tür für komplexere KI-Anwendungen auf alltäglichen Geräten wie Smartphones öffnen, da sie weniger Rechenleistung und Energie benötigen.
|
|
LesetippS
OpenAI-Insider warnen vor einer gefährlichen Unternehmenskultur
In einem offenen Brief warnen aktuelle und ehemalige Mitarbeiter von OpenAI vor einer „rücksichtslosen“ Entwicklung im Wettlauf um die Vorherrschaft bei Künstlicher Intelligenz. Sie fordern weitreichende Veränderungen in der KI-Branche, darunter mehr Transparenz und einen besseren Schutz für Whistleblower. Die Unterzeichner kritisieren eine Kultur der Geheimniskrämerei und des Profits um jeden Preis bei OpenAI. Das Unternehmen würde Sicherheitsbedenken hintanstellen, um als Erstes eine Artificial General Intelligence (AGI) zu erschaffen.
|
|
Hinter den Kulissen von Anthropic (Claude): Sicherheit als Priorität
In einem ausführlichen Artikel beleuchtet Time Magazine das KI-Unternehmen Anthropic und dessen Bemühungen, Sicherheit als oberste Priorität zu setzen. Der Mitbegründer und CEO Dario Amodei entschied sich bewusst dagegen, den leistungsstarken Chatbot Claude frühzeitig zu veröffentlichen, um potenzielle Risiken zu vermeiden. Anthropic sieht seine Mission darin, durch den Aufbau und die Erforschung mächtiger KI-Systeme empirisch zu ergründen, welche Gefahren tatsächlich bestehen. Das Unternehmen hofft, durch freiwillige Selbstbeschränkung und eine „Responsible Scaling Policy“ einen branchenweiten Wettlauf um Sicherheit auszulösen.
|
|
Die unrühmliche Geschichte eines KI-getriebenen Newsportals
BNN Breaking, eine Nachrichtenseite mit Millionen von Lesern, einem internationalen Journalistenteam und einer Partnerschaft mit Microsoft, erwies sich als Quelle zahlreicher Fehler und Falschmeldungen. Ehemalige Mitarbeiter berichten, dass die Seite in großem Umfang auf KI-generierte Inhalte setzte, die oft ohne ausreichende Prüfung veröffentlicht wurden. Dies führte zu Beschwerden von Personen, die fälschlicherweise in Artikeln genannt wurden, sowie von Nachrichtenagenturen, deren Inhalte ohne Erlaubnis übernommen wurden. Der Fall wirft ein Schlaglicht auf die wachsende Gefahr, die von KI-generierten „Fake News“ für den seriösen Journalismus ausgeht.
|
|
Neue Quellen für bessere KI-Trainingsdaten
Große Sprachmodelle (LLMs) werden nicht mehr nur mit Daten aus dem Internet trainiert. Früher basierten LLMs auf dem riesigen Datenfundus des Internets, doch die Grenzen dieses Ansatzes sind erreicht. Um LLMs weiterzuentwickeln, greifen Unternehmen wie OpenAI auf neue Datentypen zurück: Gezielte Kommentierung und Filterung verbessern die Qualität bestehender Daten, menschliches Feedback optimiert das Verhalten der Modelle, und die Nutzung eigener Daten, wie Chatverläufe und interne Dokumente, erweitert den Trainingsumfang. Doch die größte Veränderung kommt von neuen Ansätzen: Dazu gehören synthetische Daten, die von den LLMs selbst generiert werden, sowie von Menschen erstellte Datensätze, die gezielt Lücken im Internet-Training schließen. Sie ermöglichen es, Fähigkeiten zu verbessern, die bisher nur unzureichend trainiert werden konnten. So werden LLMs nicht nur zu „Internet-Simulatoren“, sondern lernen, komplexere Aufgaben zu bewältigen, die im Internet nicht ausreichend repräsentiert sind.
|
|
Fundstück
Visuelle Wetterstation
|
|
Dieses Bastelprojekt zeigt nicht nur das aktuelle Wetter in einem Ort, sondern generiert gleichzeitig eine passende Illustration. Es basiert auf dem „Sol Mate“ GPT und nutzt ein E-Paper-Display.
|
|
Was bedeutet …
Adapter
Stell dir vor, du hast einen Universal-Werkzeugkasten, der zwar viele verschiedene Werkzeuge enthält, aber für spezielle Aufgaben zu groß und unhandlich ist. Um bestimmte Arbeiten effizient zu erledigen, kannst du kleine, spezialisierte Aufsätze, sogenannte Adapter, verwenden. Diese Adapter werden an das Universal-Werkzeug befestigt und erweitern dessen Funktion. So kannst du zum Beispiel einen Schraubendreher-Adapter an eine Bohrmaschine anschließen, um Schrauben zu befestigen, oder einen Schleifkopf-Adapter, um Oberflächen zu glätten. In der künstlichen Intelligenz funktionieren Adapter ähnlich: Sie sind kleine, spezialisierte Module, die an ein großes, allgemeines KI-Modell angedockt werden und es für bestimmte Aufgaben optimieren. Dadurch können große, komplexe Modelle effizient für spezifische Aufgaben eingesetzt werden, ohne dass das gesamte Modell neu trainiert werden muss.
|
|
Wir über uns
Gefällt dir dieser Newsletter? Dann empfiehl ihn doch weiter! Verweise dazu am besten auf https://upload-magazin.de/smart-content-report/ Wir haben zwei weitere Newsletter, die für dich relevant sind:
Das Content-Briefing liefert dir immer im Wechsel mit dem Smart Content Report einen praktischen Tipp für deine Content-Arbeit sowie Lesetipps andernorts. Ansehen …
Mit dem Update am Montag wiederum erfährst du einmal pro Woche, welche neuen Inhalte und Angebote du beim UPLOAD Magazin findest. Ansehen …
|
|
|