Außerdem: OpenAIs Finanzierungsrunde, offene KI-Modelle von Nvidia, qualifizierte „KI-Trainer“ gesucht, Googles NotebookLM erklärt, Llama 3.2 und vieles mehr ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏
Smart Content Report #20
So bekommst du ehrlicheres Feedback von deinem KI-Assistenten
Eines der Anwendungsfelder für meine zahlreichen KI-Assistenten ist es, meine selbstgeschriebenen Beiträge zu verbessern. Ich frage etwa danach, ob ich an die wesentlichen Themen und Fragestellungen gedacht habe, das Ganze logisch aufgebaut ist und verständlich geschrieben. An sich können KI-Tools das recht gut. Sie haben ein breites Wissen und sie sind Spezialisten dafür, Texte und andere Daten zu analysieren. Wenn es um Feedback geht, steht ihnen nur eine Sache im Weg: Sie sind zu gut erzogen. Und das kannst du durchaus wörtlich nehmen. Im Zuge ihres Trainingsprozesses lernen diese KI-Anwendungen, welche Antworten erwünscht sind und welche nicht. Dabei werden sie oft zu besonders viel Höflichkeit gegenüber dem User erzogen. Die Assistenten sollen darüber hinaus positiv sein, dich motivieren und unterstützen. Wer sich mit hilfreichem Feedback auskennt, weiß aber: Es hilft nichts, immer nur das Gute hervorzuheben. Du musst ebenfalls klar und deutlich sagen, wo und wie sich etwas verbessern lässt. Das aber machen die KI-Assistenten bisweilen nur zögerlich oder unvollständig. Um das zu umgehen, kannst du deinen Assistenten direkt dazu auffordern, dir ehrliches, ungeschminktes Feedback zu geben. Mach es vielleicht sogar zu einem Spiel: Je mehr Verbesserungsvorschläge er hat, desto besser. Denn die KI will schließlich deine Wünsche möglichst gut erfüllen. Das kannst du nutzen. Eine andere Möglichkeit, über die ich neulich auf Reddit gelesen habe: Sage dem Assistenten, dass dein Text von jemand anderem stammt. Dieser kleine Dreh kann bereits die Ehrlichkeitsbremse lösen, die das Training installiert hat. Schließlich steht nun nicht mehr im Weg, dass die KI dich nett und freundlich behandeln muss. Und auf der Website bekommst du einen Bonus-Tipp …! – Jan Tißler
|
|
In eigener Sache
KI & Content: Individuelle Schulungen für Unternehmen
|
|
Erweitere dein Content-Team um passende KI-Tools für mehr Produktivität, Effizienz und Qualität.
In unseren individuellen Schulungen zeigen wir, wie dein Team ChatGPT, Bing Copilot, Perplexity und andere sinnvoll und zielgerichtet einsetzen kann und ermöglichen so die Integration in den produktiven Einsatz. Wir stellen deinem Team alle wichtigen KI-Tools vor, üben den gekonnten und zielgerichteten Einsatz und erarbeiten effiziente Workflows für noch besseren Content.
|
|
|
Möchtest du hier erscheinen?
Schalte eine Anzeige in den Newslettern des UPLOAD Magazins und erreiche über 4.000 interessierte Leser:innen.
|
|
|
|
TOOLS
Nvidia überrascht mit leistungsstarken, offenen KI-Modellen
Nvidia hat ein leistungsstarkes Open-Source-KI-Modell veröffentlicht, das augenscheinlich mit proprietären Systemen führender Unternehmen wie OpenAI und Google konkurrieren kann. Das als NVLM 1.0 bezeichnete Modell zeigt herausragende Leistungen bei Bild- und Sprachaufgaben und verbessert zudem die reinen Textfähigkeiten. Michael Nuñez berichtet darüber für VentureBeat. Das Hauptmodell NVLM-D-72B mit 72 Milliarden Parametern kann komplexe visuelle und textuelle Eingaben verarbeiten, wie etwa Memes interpretieren und mathematische Probleme schrittweise lösen. Nvidia macht die Modellgewichte öffentlich zugänglich und verspricht, den Trainingscode zu veröffentlichen. Diese Entscheidung ermöglicht Forschern und Entwicklern beispiellosen Zugang zu modernster KI-Technologie.
|
|
NotebookLM erklärt: Googles KI-gestützter Recherche-Assistent
Google hat mit NotebookLM ein vielseitiges KI-Tool für Notizen und Recherche entwickelt, das sich zunehmend auch für den professionellen Einsatz eignet. Es ermöglicht Nutzern, verschiedene Dokumenttypen wie PDFs, Webseiten, Google Docs und neuerdings auch YouTube-Videos und Audiodateien in einem digitalen Notizbuch zu organisieren. Eine Kernfunktion von NotebookLM ist die KI-gestützte Analyse und Zusammenfassung der hochgeladenen Inhalte. Das Tool kann automatisch Zusammenfassungen generieren, Folgefragen vorschlagen und komplexe Themen erklären. Dabei fokussiert sich die KI ausschließlich auf die bereitgestellten Dokumente, was eine präzise und kontextbezogene Auswertung ermöglicht. Für Berufstätige bietet NotebookLM interessante Anwendungsmöglichkeiten: Es kann bei der Strukturierung von Schreibprojekten helfen, Marketingpläne entwerfen oder E-Mail-Newsletter erstellen. Die neue Audio-Übersicht-Funktion verwandelt zudem schriftliche Inhalte in gesprochene Zusammenfassungen, was besonders für auditive Lerntypen nützlich sein kann. Ein weiterer Vorteil für Teams ist die Möglichkeit, Notizen und generierte Audio-Diskussionen über öffentliche URLs zu teilen. Dies fördert die Zusammenarbeit und den Wissensaustausch innerhalb von Unternehmen. NotebookLM entwickelt sich so zu einem wertvollen Tool für Recherche, Analyse und Wissensmanagement in professionellen Umgebungen. Trotz des wachsenden Funktionsumfangs betont Google die Wichtigkeit des kritischen Umgangs mit den KI-generierten Inhalten. NotebookLM soll als Unterstützung dienen, nicht als Ersatz für eigenes Denken und gründliche Recherche.
|
|
Meta Llama 3.2 ist da
Meta hat die neue Version seiner KI-Modellreihe vorgestellt: Llama 3.2. Erstmals umfasst diese auch Vision-Modelle, die sowohl Bilder als auch Text verarbeiten können. Die größeren Varianten mit 11 und 90 Milliarden Parametern sollen bei der Bildverarbeitung mit geschlossenen Systemen wie Claude 3 Haiku konkurrieren können. Neu sind auch kleinere Textmodelle mit 1 und 3 Milliarden Parametern, die auf mobilen Geräten und Edge-Systemen laufen. Laut Meta eignen sich diese für Anwendungen wie Zusammenfassungen oder Terminplanung direkt auf dem Gerät. Parallel dazu führt das Unternehmen den sogenannten Llama Stack ein – ein Paket von Tools und APIs zur vereinfachten Entwicklung und Bereitstellung von KI-Anwendungen. Um die Verbreitung zu fördern, arbeitet Meta mit zahlreichen Cloud-Anbietern und Technologiefirmen zusammen. Das Unternehmen betont dabei seinen Open-Source-Ansatz und die Zugänglichkeit der Modelle. Gleichzeitig wurden die Sicherheitsmechanismen erweitert, unter anderem mit einem neuen Llama Guard-Modell zur Filterung problematischer Inhalte.
|
|
Dies ist nur ein Ausschnitt. Auf der Website findest du weitere aktuelle Tools.
|
|
News
OpenAI schließt Finanzierungsrunde ab
OpenAI sammelt 6,6 Milliarden US-Dollar in einer neuen Finanzierungsrunde ein. Das Unternehmen wird dabei mit 157 Milliarden US-Dollar bewertet, wie Bloomberg berichtet. Die Investition soll OpenAI helfen, seine führende Position in der generativen KI-Technologie auszubauen. Es ist eine der größten privaten Investitionen aller Zeiten. Die Finanzierungsrunde wurde von Thrive Capital angeführt. Zu den Investoren zählen auch Microsoft, Nvidia, SoftBank und die neue Tech-Investmentfirma MGX aus Abu Dhabi. OpenAI plant, das Geld für KI-Forschung und den Ausbau seiner Rechenkapazitäten zu nutzen. Finanzchefin Sarah Friar betont, dass KI bereits das Lernen personalisiere, medizinische Durchbrüche beschleunige und die Produktivität steigere. Das Unternehmen steht trotz des Erfolgs seines Chatbots ChatGPT vor Herausforderungen. Dazu gehören interne Umstrukturierungen und der Verlust wichtiger Führungskräfte. Gleichzeitig wächst die Konkurrenz durch Tech-Giganten wie Google und Amazon sowie neue KI-Startups. OpenAI erwägt zudem, seine Struktur von einer gemeinnützigen in eine gewinnorientierte Organisation umzuwandeln, um Investoren entgegenzukommen.
|
|
OpenAI plant enormes Wachstum und deutlich höhere Preise
OpenAI verzeichnet ein explosionsartiges Wachstum. Der Umsatz stieg im August auf 300 Millionen US-Dollar – ein Plus von 1.700 Prozent seit Anfang 2023. Für das Gesamtjahr 2024 rechnet das Unternehmen mit 3,7 Milliarden US-Dollar Umsatz. Das geht aus Finanzdokumenten hervor, die der New York Times vorliegen. Trotz des Booms schreibt OpenAI rote Zahlen. Für 2024 wird ein Verlust von rund 5 Milliarden US-Dollar erwartet. Die hohen Kosten entstehen vor allem durch den Betrieb der KI-Dienste. Um weiteres Wachstum zu finanzieren, strebt das Unternehmen derzeit eine Investitionsrunde an, die es mit 150 Milliarden Dollar bewerten könnte. Zudem versucht es, sich von seiner Non-Profit-Struktur zu lösen. Die Nutzerzahlen steigen zugleich rasant. Rund 350 Millionen Menschen nutzen monatlich OpenAI-Dienste, davon zahlen etwa 10 Millionen für ein ChatGPT-Abo. Das Unternehmen plant, den monatlichen Abopreis von derzeit 20 US-Dollar bis Ende des Jahres um 2 US-Dollar anzuheben. In den nächsten fünf Jahren soll er auf 44 US-Dollar steigen. Für 2029 peilt OpenAI einen Umsatz von 100 Milliarden US-Dollar an.
|
|
OpenAI: CTO und andere Spitzenkräfte verlassen das Unternehmen
Das ChatGPT-Unternehmen OpenAI erlebt eine Welle hochrangiger Abgänge. Wie am Mittwoch bekannt wurde, verlassen CTO Mira Murati, Chief Research Officer Bob McGrew und VP of Research Barret Zoph das Unternehmen. CEO Sam Altman betonte, die Entscheidungen seien unabhängig voneinander und einvernehmlich getroffen worden. Gleichzeitig plant OpenAI offenbar eine tiefgreifende Umstrukturierung. Laut Medienberichten soll das Unternehmen in eine gewinnorientierte Struktur überführt werden, bei der CEO Altman einen Eigenkapitalanteil von 7% erhalten könnte. Diese Pläne könnten mit den Abgängen in Zusammenhang stehen, da sie möglicherweise zu Meinungsverschiedenheiten über die künftige Ausrichtung des Unternehmens geführt haben. Als Reaktion auf die Abgänge gab OpenAI eine Reihe interner Beförderungen und Neubesetzungen bekannt. Mark Chen wird neuer Senior Vice President of Research, während Jakub Pachocki die Position des Chief Scientist übernimmt. Branchenbeobachter sehen in den Veränderungen eine mögliche Herausforderung für OpenAIs Marktposition, da Wettbewerber wie Google und Meta in der KI-Entwicklung aufholen.
Quellen: VentureBeat, TechCrunch, CNBC
|
|
100 Mio. US-Dollar für deutsches KI-Startup Black Forest Labs
Black Forest Labs, ein deutsches Startup für generative KI-Bildmodelle, steht laut Quellen kurz vor einer neuen Finanzierungsrunde von 100 Millionen US-Dollar bei einer Bewertung von 1 Milliarde Dollar. Das berichtet Ingrid Lunden für TechCrunch. Die Firma wurde von den Ingenieuren gegründet, die auch die Technologie hinter Stability AI entwickelt haben. Zu den Gründern gehören Andreas Blattmann, Patrick Esser, Dominik Lorenz und CEO Robin Rombach. Das in Freiburg ansässige Unternehmen kam erst vor zwei Monaten mit einer Finanzierung von 31 Millionen Dollar aus der Stealth-Phase. Ihr frei verfügbarer Bildgenerator „Flux“ konnte in ersten Tests überzeugen. Derzeit arbeitet Black Forest Labs an einem hochmodernen Text-zu-Video-Tool, dessen Veröffentlichungsdatum noch nicht bekannt gegeben wurde.
|
|
Dies ist nur ein Ausschnitt. Auf der Website findest du weitere aktuelle News.
|
|
Hintergrund
KI stellt das US-Stromnetz vor enorme Herausforderungen
Die rasante Entwicklung der künstlichen Intelligenz führt zu einem enormen Strombedarf, der das US-Stromnetz an seine Grenzen bringt. Wie Jennifer Hiller im Wall Street Journal berichtet, suchen Technologieunternehmen landesweit nach Stromkapazitäten für ihre KI-Rechenzentren. Vielerorts sind die Hochspannungsleitungen jedoch bereits ausgelastet, sodass Neuanschlüsse teilweise bis in die 2030er Jahre warten müssen. Die Situation führt zu einem Wettlauf um verfügbare Stromkapazitäten und Konflikten über die Finanzierung nötiger Netzausbaumaßnahmen. Einige Versorgungsunternehmen erwägen höhere Stromtarife oder langfristige Verträge für Rechenzentren, um Investitionen abzusichern. Experten schätzen, dass Rechenzentren bis 2030 bis zu 9% des US-Stromverbrauchs ausmachen könnten. Die Energieversorger stehen vor der Herausforderung, den steigenden Bedarf zu decken, ohne andere Kunden zu belasten.
|
|
Ansprüche an „KI-Trainer“ steigen
Unternehmen wie Invisible Tech beschäftigen mittlerweile tausende hochqualifizierte Trainer weltweit. Sie helfen KI-Firmen wie OpenAI, Microsoft oder Cohere dabei, Fehler in ihren Modellen zu reduzieren. Das berichtet die Nachrichtenagentur Reuters. Für anspruchsvollere Aufgaben werden demnach nun spezialisierte Fachkräfte mit fortgeschrittenen Abschlüssen benötigt, statt wie früher Studierende für Basisaufgaben einzusetzen. Die Bezahlung reicht je nach Komplexität und Fachgebiet von 15 bis 200 US-Dollar pro Stunde. Ziel ist es, die sogenannten Halluzinationen der KI-Systeme zu verringern und die Qualität der Antworten zu verbessern. Siehe dazu:
|
|
Große KI-Modelle lügen eher als kleine
Neuere, größere Versionen von KI-Chatbots neigen stärker dazu, falsche Antworten zu geben, statt Unwissenheit einzugestehen. Das ergab eine Studie von José Hernández-Orallo und Kollegen, die in der Fachzeitschrift Nature veröffentlicht wurde. Die Forscher untersuchten drei große Sprachmodelle: GPT, LLaMA und BLOOM. Sie stellten fest, dass die Genauigkeit der Antworten mit der Größe der Modelle zwar zunimmt, die Zuverlässigkeit aber abnimmt. Die Studie zeigte auch, dass Menschen oft Schwierigkeiten haben, falsche Antworten der Chatbots zu erkennen. Zwischen 10% und 40% der ungenauen Antworten wurden fälschlicherweise als korrekt eingestuft. Die Forscher empfehlen, die Leistung der KI bei einfachen Fragen zu verbessern und sie bei schwierigen Fragen eher zum Ablehnen einer Antwort zu ermutigen. Dies könnte Nutzern helfen, die Zuverlässigkeit der KI-Systeme besser einzuschätzen.
|
|
Diskussion: Auswirkungen von KI auf die Arbeitswelt
Eine lesenswerte Diskussion auf Reddit beleuchtet die wachsenden Ängste und Unsicherheiten hinsichtlich der transformativen Kraft der künstlichen Intelligenz und ihrer potenziellen Auswirkungen auf die Arbeitswelt. Der ursprüngliche Post argumentiert, dass KI, obwohl sie derzeit von vielen als nützliches Werkzeug angesehen wird, das Potenzial hat, die Gesellschaft in einem noch nie dagewesenen Ausmaß zu verändern. Er prognostiziert, dass KI mindestens ein Drittel der derzeitigen Arbeitsplätze überflüssig machen wird. Er befürchtet, dass die durch KI verursachte Arbeitslosigkeit die Weltwirtschaftskrise in den Schatten stellen könnte. Weiterlesen …
|
|
Wenn die Hypemaschine rennt, bleiben Nutzerrechte und Ethik auf der Strecke
Die Technologiebranche stürze sich blind in fragwürdige Trends wie Generative KI und Blockchain, kritisiert Sicherheitsexperte Soatok in seinem Blogpost. Er beobachtet, dass immer mehr Unternehmen diese Technologien einführen, ohne Rücksicht auf Nutzerinteressen oder ethische Bedenken zu nehmen. Soatok nennt konkrete Beispiele: WordPress dränge zahlenden Kunden KI-generierte Bilder auf, Snapchat behalte sich vor, KI-Bilder von Nutzern für Werbung zu verwenden, und selbst Mozilla habe eine Funktion eingeführt, die die Datensammlung für Werbetreibende erleichtere. Um diesem Trend entgegenzuwirken, schlägt Soatok ein Bewertungssystem für Technologieunternehmen vor. Dieses soll Firmen anhand ihrer Praktiken in Bereichen wie KI-Nutzung, Blockchain-Einsatz und Arbeitsbedingungen einstufen. Ziel ist es, verantwortungsvolles Handeln zu fördern und Unternehmen hervorzuheben, die nicht jedem Hype folgen. Der Autor sieht die Entwicklung insgesamt sehr kritisch. Er befürchtet, dass die Technologiebranche in eine Zukunft steuert, in der Nutzerrechte und Ethik auf der Strecke bleiben.
|
|
Dies ist nur ein Ausschnitt. Auf der Website findest du mehr aktuelle Hintergrund-Artikel.
|
|
Was bedeutet …
Mixture of Experts
Mixture of Experts (MoE) ist ein Konzept in der künstlichen Intelligenz, das sich am besten als ein Team von Spezialisten verstehen lässt. Bei diesem Ansatz wird eine komplexe Aufgabe auf mehrere kleinere, spezialisierte Modelle – die sogenannten „Experten“ – aufgeteilt, anstatt ein einziges großes Modell für alles zu verwenden. Ein zentraler „Gatekeeper“ oder „Router“ entscheidet dabei, welcher Experte für eine bestimmte Teilaufgabe am besten geeignet ist. Dies ermöglicht es dem System, effizienter und präziser zu arbeiten, da jeder Experte sich auf seinen Spezialbereich konzentrieren kann. In der Praxis bedeutet dies, dass ein MoE-Modell beispielsweise bei der Textverarbeitung einen Experten für Grammatik, einen für Vokabular und einen für Kontext haben könnte. Der Gatekeeper würde dann je nach Anforderung den passenden Experten auswählen. Dieser Ansatz nutzt Rechenressourcen effizienter und liefert oft bessere Ergebnisse als ein einzelnes, allumfassendes Modell. MoE wird zunehmend in großen Sprachmodellen und anderen KI-Anwendungen eingesetzt, um deren Leistung und Effizienz zu steigern.
|
|
Wir über uns
Gefällt dir dieser Newsletter? Dann empfiehl ihn doch weiter! Verweise dazu am besten auf https://upload-magazin.de/smart-content-report/ Wir haben zwei weitere Newsletter, die für dich relevant sind:
Das Content-Briefing liefert dir immer im Wechsel mit dem Smart Content Report einen praktischen Tipp für deine Content-Arbeit sowie Lesetipps andernorts. Ansehen …
Mit dem Update am Montag wiederum erfährst du einmal pro Woche, welche neuen Inhalte und Angebote du beim UPLOAD Magazin findest. Ansehen …
|
|
|