Außerdem: KI-Schulungen für Unternehmen, Updates von Google und Meta, Zweifel an der Wirtschaftlichkeit des KI-Booms und vieles mehr ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏ ͏
Smart Content Report #14
Warum ChatGPT & Co. bisweilen grandios an Aufgaben scheitern
Im vorherigen Smart Content Report hatte ich in der Rubrik „Fundstücke“ eine kuriose bebilderte Anleitung, generiert von ChatGPTs Dall-E:
|
|
Ich finde solche „Fails“ spannend zu sehen, weil sich dort oftmals grundsätzliche Probleme zeigen. Wir sind z.B. immer noch ein gutes Stück von einer KI entfernt, die die Welt um sich herum tatsächlich versteht („General World Model“). Im Moment imitieren diese Tools ihr Zielmedium so gut sie können, ohne auch nur ansatzweise zu wissen, was sie dort eigentlich produzieren. Das gilt für alle Medienarten: Text, Foto, Video, Audio. Deshalb sind bspw. die Zahlen so unsinnig in der Grafik: Der Bildgenerator weiß nicht, was Zahlen sind, wie sie funktionieren und welche Rolle sie bei einer solchen Anleitung spielen. Er hat lediglich aus etlichen Beispielen gelernt, dass dieses Element dort auftaucht. Und dann natürlich das grundsätzliche Problem mit der Anleitung im Bild: Offenbar gibt es viele Illustrationen, die zeigen, wie man die Rückseite des Fernsehers an der Halterung befestigt. Und das vermischt sich dann mit dem Rest des Vorgangs. Wie gesagt: Weil die KI eben nicht tiefergehend versteht, was sie dort erzeugt. Oder frage ChatGPT doch einmal, wie häufig der Buchstabe R im Wort Strawberry vorkommt. Du wirst sehr wahrscheinlich eine falsche Antwort bekommen. Warum? Weil ChatGPT nicht das Wort Strawberry sieht und auch keine Buchstaben. Es arbeitet intern mit Token und das können einzelne oder mehrere Zeichen sein. ChatGPT hat gelernt, wie diese Token zusammenhängen und kann mit diesem Wissen verblüffende Dinge bewerkstelligen. Aber es versteht eben nicht, was es liest oder schreibt. Siehe dazu auch diesen Artikel bei TechCrunch. Daraus entsteht ein Kontrast, den ich persönlich immer wieder verblüffend finde. Denn auf den ersten Blick sieht die illustrierte Anleitung oben beispielsweise gut aus. Der Stil ist vertraut, die menschliche Figur sieht einigermaßen korrekt aus, es ist optisch ansprechend … Aber je länger man schaut, desto mehr Probleme entdeckt man. Und genau so ist es, mit der heutigen Generation der KI-Tools zu arbeiten. Sie können viele Dinge gut. Sie können hilfreich sein. Aber man muss immer wachsam bleiben. Und man muss lernen, wo und wann sie scheitern. Die Grenze zwischen dem, was die KI kann und nicht kann, ist bei alldem nicht geradlinig. Sie entspricht eher einem wilden Zickzackmuster. Wiederkehrende Schwächen zeichnen sich trotzdem ab, wenn man die Tools lange genug nutzt. Es zeigt sich vor allem eines: Bei der überwiegenden Zahl der Aufgaben sind sie noch immer weit davon entfernt, einen Menschen direkt zu ersetzen. - Jan Tißler, UPLOAD Magazin
|
|
In eigener Sache
KI & Content: Individuelle Schulungen für Unternehmen
|
|
Erweitere dein Content-Team um passende KI-Tools für mehr Produktivität, Effizienz und Qualität.
In unseren individuellen Schulungen zeigen wir, wie dein Team ChatGPT, Bing Copilot, Perplexity und andere sinnvoll und zielgerichtet einsetzen kann und ermöglichen so die Integration in den produktiven Einsatz. Wir stellen deinem Team alle wichtigen KI-Tools vor, üben den gekonnten und zielgerichteten Einsatz und erarbeiten effiziente Workflows für noch besseren Content.
|
|
|
Möchtest du hier erscheinen?
Schalte eine Anzeige in den Newslettern des UPLOAD Magazins und erreiche über 4.000 interessierte Leser:innen.
|
|
|
|
TOOLS
Updates von Google und Meta
Google will die Genauigkeit seiner KI-Modelle verbessern. Um „Halluzinationen“ zu vermeiden, arbeitet das Unternehmen mit Partnern wie Moody's, Thomson Reuters und ZoomInfo zusammen. Sie sollen KI-Systeme mit aktuellen Informationen füttern. Ein neuer „Confidence Score“ soll außerdem anzeigen, wie sicher die KI ist, eine korrekte Antwort gegeben zu haben. Google veröffentlicht mit Gemma 2 darüber hinaus eine neue Reihe leichter KI-Modelle. Neben einem 27 Milliarden Parameter großen Modell gibt es nun auch eine 9-Milliarden-Parameter-Variante, die besonders für Anwendungen auf Geräten wie Smartphones oder IoT-Geräten geeignet ist. Die Modelle sollen Entwicklern mehr Flexibilität bieten und können frei genutzt und angepasst werden. Google plant außerdem, in Zukunft ein noch kleineres Modell mit 2,6 Milliarden Parametern zu veröffentlichen. Googles neues Text-zu-Bild-Modell Imagen 3 ist zudem nun auf der hauseigenen Plattform Vertex AI verfügbar. Die verbesserte Bild-KI soll schnellere Bildgenerierung, präziseres Prompt-Verständnis, fotorealistische Menschen und bessere Textdarstellung in Bildern bieten. Google erweitert seine KI-Plattform Vertex AI außerdem um die Modelle Mistral Small, Mistral Large und Mistral Codestral. Dies folgt der jüngsten Aufnahme von Anthropics Claude 3.5 Sonnet und zeigt Googles Ansatz, Unternehmen eine breite Palette an KI-Tools und -Modellen anzubieten. Meta wiederum testet Nutzer-generierte KI-Chatbots auf Instagram. Die Chatbots, die über das Meta AI Studio erstellt werden, sollen zunächst in den USA in den direkten Nachrichten auftauchen und klar als KI gekennzeichnet sein. Ziel ist es, Nutzern die Interaktion mit KI-Avataren ihrer Lieblings-Influencer und zu bestimmten Themen zu ermöglichen. Langfristig sollen auch Unternehmen die Möglichkeit erhalten, eigene KI-Chatbots zu erstellen, um die Kommunikation mit Kunden zu verbessern. Meta hat mit „3D Gen“ außerdem ein KI-System vorgestellt, das in Sekundenschnelle hochwertige 3D-Modelle aus Textbeschreibungen generieren soll. Die Kombination aus „3D AssetGen“ für die Erstellung der 3D-Modelle und „3D TextureGen“ für die Generierung realistischer Texturen soll die Produktion komplexer Objekte in bisher unerreichter Geschwindigkeit ermöglichen. Meta hat darüber hinaus vortrainierte Modelle veröffentlicht, die auf der Multi-Token-Vorhersage basieren. Diese Technik, die Meta erstmals im April in einem Forschungspapier vorgestellt hatte, ermöglicht es Modellen, mehrere Wörter gleichzeitig vorherzusagen, anstatt nur das nächste Wort in einer Sequenz. Dadurch lassen sich die Modelle schneller trainieren und können gleichzeitig eine bessere Leistung erzielen. Und Meta hat mit MobileLLM ein neues Sprachmodell entwickelt, das speziell für den Einsatz auf Smartphones und anderen Geräten mit begrenzten Ressourcen optimiert ist. MobileLLM übertrifft vergleichbare Modelle in seiner Leistung und zeigt, dass auch kleinere Modelle in spezifischen Anwendungen mithalten können.
|
|
Weitere Tools in aller Kürze
Das französische KI-Forschungslabor Kyutai, unterstützt vom Milliardär Xavier Niel, hat einen neuen Sprachassistenten namens Moshi vorgestellt. Dieser Assistent kann 70 verschiedene Emotionen und Stile nutzen, um besonders echt zu wirken. Kyutai gibt den Code der Technologie als Open Source frei. Writer hat ein großes Update seiner Plattform veröffentlicht, das Unternehmen den Einsatz von KI erleichtern soll. Chatbots können nun etwa bis zu 10 Millionen Wörter an firmenspezifischen Daten verarbeiten und komplexe Aufgaben wie Dokumentenanalyse und Wissensmanagement übernehmen. Ein fortschrittlicher Algorithmus soll für präzisere Suchergebnisse sorgen und es ermöglichne, die Entscheidungsfindung der KI nachzuvollziehen. Neu eingeführte „Modi“ passen die Benutzeroberfläche an spezifische Aufgaben an, was die Nutzung für Mitarbeiter ohne tiefere KI-Kenntnisse vereinfacht. Mit dem neuen AWS App Studio sollen Unternehmen in wenigen Minuten skalierbare, interne Anwendungen erstellen können – ganz ohne Programmierkenntnisse. Mithilfe generativer KI erstellt App Studio anhand von natürlichsprachigen Beschreibungen Anwendungen, die sich in interne Systeme integrieren lassen. Das Tool kümmert sich nach Amazons Darstellung um alle Aspekte der Anwendungsentwicklung, von der Bereitstellung über den Betrieb bis hin zur Wartung. Resemble AI hat mit Detect-2B ein neues Modell zur Erkennung von Audio-Deepfakes vorgestellt, das mit einer Genauigkeit von 94 % aufwarten soll. Das Modell erkennt anhand subtiler Artefakte, ob es sich um echte oder künstlich generierte Sprache handelt. Apple gibt mit dem „4M“-KI-Modell Einblicke in seine Fortschritte im Bereich der Künstlichen Intelligenz. Das Modell wurde in Zusammenarbeit mit der ETH Lausanne entwickelt und kann Texte in Bilder umwandeln, Objekte erkennen und 3D-Szenen anhand von Spracheingaben manipulieren. ElevenLabs hat eine neue App namens Reader veröffentlicht, die es Nutzern ermöglicht, beliebige Texte in AI-Stimmen vorlesen zu lassen. Neu sind dabei die „Iconic Voices“, die die Stimmen von verstorbenen Stars wie Judy Garland, James Dean und Laurence Olivier nachbilden. Das Unternehmen hat die Rechte an den Stimmen von CMG Worldwide erworben und betont, dass die Stimmen nur in der App verwendet werden können. Außerdem hat ElevenLabs einen neuen, kostenlosen Dienst namens AI Voice Isolator eingeführt, der unerwünschte Hintergrundgeräusche aus Filmen, Podcasts oder YouTube-Videos entfernt. Im Gegensatz zu anderen Programmen, die nur konstante Geräusche entfernen können, bewältigt der Voice Isolator auch unregelmäßige Geräusche wie etwa das Öffnen einer Tür oder Klatschen. Salesforce hat mit xLAM-1B ein kleines, aber leistungsstarkes KI-Modell entwickelt, das im Vergleich zu größeren Modellen von OpenAI und Anthropic bei Funktionsaufrufen besser abschneidet. Quoras KI-Chatbot-Plattform Poe führt mit „Previews“ eine neue Funktion ein, mit der sich in Chats interaktive Anwendungen erstellen lassen. Dazu gehören etwa Datenvisualisierungen, Spiele oder sogar Drumcomputer, die auf Informationen aus hochgeladenen Dateien zugreifen. Die erstellten Anwendungen lassen sich über einen Link teilen. Microsofts neue Technologie „MInference“ verspricht, die Verarbeitungsgeschwindigkeit großer Sprachmodelle deutlich zu erhöhen, indem sie die Vorverarbeitungszeit langer Texte um bis zu 90% reduziert. Eine interaktive Demo auf Hugging Face ermöglicht es Entwicklern, die Technologie selbst zu testen und ihre Möglichkeiten zu erforschen. Anthropic hat neue Funktionen für sein Sprachmodell Claude veröffentlicht, die Entwicklern helfen sollen, bessere Prompts zu erstellen und so die Leistung ihrer KI-Anwendungen zu optimieren. Was kann die neue Video-KI Runway Gen-3 wirklich? Ein Reddit-Nutzer hat sich einen Jahreszugang gegönnt und ließ andere bestimmen, welche Prompts er ausprobieren sollte. Hier siehst du die Ergebnisse.
|
|
News
Zweifel an der Wirtschaftlichkeit des KI-Booms
Die Tech-Branche investiert massiv in KI-Infrastruktur, doch Experten zweifeln an der Rentabilität. Laut Schätzungen müssten KI-Unternehmen jährlich 600 Milliarden Dollar erwirtschaften, um die Ausgaben zu rechtfertigen. Bislang dominieren jedoch wenige Giganten wie OpenAI den Markt, während viele kleinereStartups kämpfen. Die hohen Kosten für KI-Hardware, insbesondere Nvidias GPUs, treiben die Investitionen. Gleichzeitig wächst die Sorge vor einer KI-Blase. Experten warnen, dass die Technologie noch nicht ausgereift genug sei, um komplexe Probleme zu lösen und die enormen Ausgaben zu rechtfertigen. Trotz der Risiken sehen viele das transformative Potenzial von KI. Die Herausforderung liegt darin, echten Mehrwert für Endnutzer zu schaffen und profitable Anwendungen zu entwickeln. Während einige eine Wiederholung früherer Tech-Revolutionen erwarten, mahnen andere zur Vorsicht angesichts der spekulativen Natur der aktuellen Investitionen. Quellen: Business Insider, Tom's Hardware, Sequoia Capital, The Verge
|
|
Weitere News in aller Kürze
Microsofts KI-Chef Mustafa Suleyman sorgt mit der Aussage für Aufruhr, alle online verfügbaren Inhalte seien „Freeware“. Demnach dürfe jeder diese Inhalte kopieren und für eigene Kreationen nutzen, solange Urheber nicht explizit widersprechen. Diese Aussage wird von vielen Experten angezweifelt und bereits jetzt gibt es mehrere Klagen gegen Microsoft und OpenAI wegen Urheberrechtsverletzungen im Zusammenhang mit KI-Training. Figma hat sein neues AI-Tool „Make Designs" vorübergehend aus dem Verkehr gezogen, nachdem es Designs für eine Wetter-App erstellte, die Apples Version verblüffend ähnlich waren. Dies wirft die Frage auf, ob die von Figma verwendeten Modelle von OpenAI oder Amazon auf Apples Designs trainiert wurden. Figma hat die Verantwortung für den Vorfall übernommen und will die Design-Systeme des Tools überarbeiten. Die Kosten durch Deepfake-Betrug werden laut Deloitte bis 2027 auf 40 Milliarden US-Dollar steigen, wobei Banken und Finanzdienstleister besonders gefährdet sind. Die Technologie werde immer ausgefeilter und erschwinglicher, sodass Angreifer Deepfake-Videos, -Stimmen und -Dokumente erstellen können, um Unternehmen zu täuschen. Besonders CEOs sind Ziel solcher Angriffe, die häufig mit Phishing-Attacken, Ransomware und anderen Cyberbedrohungen kombiniert werden. OpenAIs ChatGPT App für macOS hatte ein Sicherheitsleck: Alle Chats wurden unverschlüsselt auf dem Computer gespeichert. Jeder mit Zugriff auf den Rechner konnte sie lesen. Nun werden sie verschlüsselt. Ein Hacker ist im vergangenen Jahr in die internen Kommunikationssysteme von OpenAI eingedrungen und hat Informationen über die Entwicklung der KI-Technologien des Unternehmens gestohlen. Mitarbeiter kritisierten OpenAI für mangelnde Sicherheitsvorkehrungen und befürchten, dass die Technologie in Zukunft die nationale Sicherheit der USA gefährden könnte. Googles DeepMind-Forscher haben eine neue Methode namens JEST entwickelt, die das KI-Training deutlich beschleunigt und gleichzeitig den Energiebedarf senkt. Durch die optimierte Auswahl von Trainingsdaten kann JEST die Anzahl der Iterationen um das 13-fache und den Rechenaufwand um das 10-fache reduzieren. Meta tauscht seinen „Made with AI“-Tag für Fotos gegen „AI Info“ aus. Dies soll die Verwirrung um die Kennzeichnung von Fotos beheben, die lediglich mit KI-gestützten Werkzeugen bearbeitet wurden. YouTube erlaubt es Nutzern nun, die Entfernung von KI-generierten Inhalten zu beantragen, die ihr Gesicht oder ihre Stimme simulieren. YouTube prüft jeden Antrag individuell und berücksichtigt dabei Faktoren wie die Kennzeichnung des Inhalts als synthetisch, die eindeutige Identifizierung der Person und den möglichen Wert des Inhalts. Amazon untersucht derzeit, ob die KI-Suchmaschine Perplexity AI gegen die Nutzungsbestimmungen der Amazon Web Services verstößt. Perplexity soll Websites mit Inhalten auch dann abgreifen, wenn diese dies mithilfe des Robots Exclusion Protocol (robots.txt) verboten wurde. Mehr zu den Vorwürfen in Smart Content Report #13. Die Musik-KI Suno ist jetzt in den USA auch für iPhones verfügbar. Sie bietet eine Vielzahl von Stilen und Genres und kann sowohl komplette Songs mit Text und Gesang als auch Instrumentals generieren. Die App soll bald auch in anderen Ländern und für Android-Geräte verfügbar sein. OpenAI entwickelt eine neue Methode, um das Traing von KI-Modellen zu verbessern. Bisher wurden menschliche Bewerter eingesetzt, um die Qualität der KI-Outputs zu prüfem. Nun soll eine zusätzliche KI namens CriticGPT die menschlichen Trainer unterstützen. Nutzer können über eine Funktion der KI-Chatbot-Plattform Poe von Quora offenbar kostenpflichtige Artikel von renommierten Publikationen wie der New York Times oder The Atlantic als HTML-Dateien herunterladen. Experten sehen darin einen möglichen Verstoß gegen das Urheberrecht. Quora vergleicht die Funktion hingegen mit Cloud-Speicherdiensten. Die betroffenen Verlage erwägen rechtliche Schritte. Das Startup Ario entwickelt einen KI-gestützten persönlichen Assistenten, der Nutzern Aufgaben im Alltag abnehmen soll, indem er sich mit Apps wie Amazon, DoorDash und Google Kalender verbindet. Der Clou: Ario sammelt Nutzerdaten aus verschiedenen Quellen, um personalisierte Empfehlungen zu geben und Prozesse zu automatisieren. Die neue „Multimodal Arena“ von LMSYS vergleicht die Leistung verschiedener KI-Modelle bei bildbezogenen Aufgaben und zeigt: GPT-4o von OpenAI führt die Rangliste an, dicht gefolgt von Claude 3.5 Sonnet und Gemini 1.5 Pro. Überraschend: Open-Source-Modelle wie LLaVA-v1.6-34B erzielen vergleichbare Ergebnisse wie einige proprietäre Modelle. Der Haken? Trotz Fortschritten zeigt der CharXiv-Benchmark von Princeton, dass KI bei komplexen Aufgaben wie der Interpretation wissenschaftlicher Diagramme noch weit hinter den menschlichen Fähigkeiten zurückbleibt. Die neue Rangliste der besten Sprachmodelle von Hugging Face zeigt: Chinesische Modelle sind unter den frei verfügbaren KIs aktuell führend. Alibabas Qwen-Modelle dominieren die Top-Plätze des Rankings, das auf anspruchsvolleren Tests basiert als sein Vorgänger. Bewertet werden Fähigkeiten wie Wissensabruf, Schlussfolgerungen aus langen Texten, komplexe Mathematik und das Befolgen von Anweisungen. Ein neuer Forschungsbericht der Princeton University enthüllt Schwächen in aktuellen Benchmarks und Bewertungspraktiken für KI-Agenten. Die Forscher bemängeln, dass die Kostenkontrolle bei der Bewertung oft vernachlässigt wird, obwohl der Ressourcenaufwand für KI-Agenten im Vergleich zu einzelnen Modellabfragen erheblich höher sein kann. Dies führe zu verzerrten Ergebnissen, da teure Agenten mit hoher Genauigkeit in Benchmarks besser abschneiden, ohne dass die Kosten berücksichtigt werden. Darüber hinaus kritisieren die Forscher die Fokussierung auf Genauigkeit anstatt auf praktische Anwendbarkeit und die Problematik des Overfittings, bei der KI-Agenten Abkürzungen lernen, die in realen Szenarien nicht funktionieren. Die Autoren plädieren für eine ganzheitliche Bewertung von KI-Agenten, die sowohl Kosten als auch praktische Anwendbarkeit berücksichtigt, um die tatsächliche Leistungsfähigkeit dieser Systeme realistisch einschätzen zu können.
|
|
LesetippS
Was ist die besten Benutzeroberfläche für generative KI?
Dieser Artikel von VentureBeat befasst sich mit der Frage, welche Benutzeroberflächen sich am besten für generative KI eignen. Der Autor stellt fest, dass es keine allgemeingültige Antwort gibt, da die beste Benutzeroberfläche von der jeweiligen Anwendung und den gewünschten Ergebnissen abhängt.
Stattdessen stellt er verschiedene Beispiele für Gen-AI-Anwendungen vor, die unterschiedliche Ansätze verfolgen: von Chatbots wie ChatGPT, die die einfache Bedienung in den Vordergrund stellen, über Suchmaschinen wie NinjaTech, die auf wissenschaftliche Recherche fokussieren, bis hin zu kreativen Werkzeugen wie Midjourney, das bei der Bildgenerierung hilft. Der Artikel betont, dass die Zukunft der generativen KI von der Gestaltung benutzerfreundlicher und intuitiver Interfaces abhängt, die sowohl funktional als auch ästhetisch ansprechend sind.
|
|
Weitere Lesetipps in aller Kürze
Der Einsatz des Glitzer-Emojis im Kontext von Künstlicher Intelligenz sorgt für Diskussionen. Während einige Unternehmen das Symbol verwenden, um auf KI-gestützte Funktionen hinzuweisen, kritisieren andere die Verbindung von Magie und Technologie. Die Verwendung des Emojis könnte zwar zu einem einheitlichen Symbol für KI führen, doch Experten warnen vor der Gefahr, die komplexen Herausforderungen der KI-Entwicklung zu verharmlosen. Steve Chase, Vizevorsitzender für KI und digitale Innovation bei KPMG, argumentiert, dass Unternehmen einen Chief AI Officer (CAIO) benötigen, um die Chancen der KI optimal zu nutzen. Dieser sollte über technisches Verständnis, strategisches Gespür und Innovationskraft verfügen. Chase plädiert für eine verantwortungsvolle KI-Governance, die sowohl schnelles Fortschreiten als auch ethische Prinzipien berücksichtigt. Zudem sollten Mitarbeiter frühzeitig mit KI-Tools vertraut gemacht werden, um Innovationen zu fördern. Unternehmen, die schnell und entschlossen auf KI setzen, werden laut Chase einen Wettbewerbsvorteil erlangen. Rodney Brooks, ein renommierter Robotik-Experte vom MIT, warnt vor einer Überbewertung generativer KI. Er sieht in der Technologie zwar großes Potenzial, warnt aber davor, ihr Fähigkeiten zuzuschreiben, die sie nicht besitzt. Brooks kritisiert, dass Menschen die Leistung von KI-Systemen oft zu stark verallgemeinern und dabei vergessen, dass KI nicht menschlich ist und daher nicht alle Aufgaben wie ein Mensch erledigen kann. Er betont, dass die Anwendung von KI in Bereichen wie der Robotik sorgfältig abgewogen werden muss und dass die Technologie nicht für alle Probleme die optimale Lösung darstellt. Der Artikel „From AGI to ROI: The 6 AI debates shaping enterprise strategy in 2024“ von Matt Marshall beleuchtet die aktuelle Entwicklung der KI im Unternehmensumfeld. Während die anfängliche Euphorie über die Fähigkeiten von KI-Modellen wie ChatGPT nachlässt, rückt der praktische Einsatz und der Return on Investment (ROI) in den Vordergrund. Der Artikel identifiziert sechs wichtige Debatten, die die KI-Landschaft prägen, darunter die Frage nach dem Plateau der LLM-Entwicklung, der Abkühlung des AGI-Hypes, den Herausforderungen der Infrastruktur, den rechtlichen und ethischen Problemen bei der KI-Entwicklung, die Anwendung von KI in Unternehmen und die Zukunft von KI-Agenten. Der Artikel plädiert für einen pragmatischen Ansatz, der die bestehenden Fähigkeiten der KI nutzt, um konkrete Geschäftsergebnisse zu erzielen. Künstliche Intelligenz revolutioniert die Suche, schreibt VentureBeat. Generative KI ermögliche es nun, Fragen in natürlicher Sprache zu stellen und direkt eine Antwort zu erhalten, ohne durch unzählige Webseiten klicken zu müssen. Unternehmen nutzen diese Entwicklung, um „Retrieval Augmented Generation“ (RAG) zu implementieren, eine Technologie, die KI-Modelle mit eigenen Daten verbindet und so präzisere, firmenspezifische Antworten liefert. Diese Entwicklung könnte zu einer dezentralisierten Suche führen, bei der Unternehmen ihre eigenen Suchplattformen anbieten und so die Kontrolle über die Präsentation ihrer Informationen an Kunden gewinnen. Der zunehmende Bedarf an Rechenleistung und Speicherplatz für KI-Anwendungen stellt die Branche vor Herausforderungen. Während die Leistungsfähigkeit von KI-Modellen stetig wächst, droht die benötigte Infrastruktur an ihre Grenzen zu stoßen. Der Artikel beleuchtet die Problematik der Skalierung von KI-Anwendungen und mögliche Lösungsansätze. Neben der Optimierung von Cloud-Infrastrukturen wird auch die Integration von Quantencomputern als Zukunftstechnologie diskutiert. Experten warnen jedoch vor einem möglichen „Hard Ceiling“ für die KI-Entwicklung, wenn die derzeitige Entwicklung nicht angepasst wird. Dieser Artikel beleuchtet die rasante Entwicklung der Generativen KI-Technologie. Der Autor beschreibt, wie die einst übersichtliche Landschaft mit über 200 Unternehmen in verschiedenen Kategorien explodiert ist und IT-Entscheidungsträger vor Herausforderungen stellt. Die Komplexität der Technologie erfordere eine flexible Vision, die sich den ständigen Veränderungen anpass. Unternehmen suchen nach End-to-End-Lösungen, um die Integration der Generativen KI zu vereinfachen und die Innovation zu beschleunigen. Dabei spielt die Datenqualität und -governance eine entscheidende Rolle, da die Zuverlässigkeit von KI-Modellen von der Qualität der Trainingsdaten abhängt.
|
|
Fundstück
Absurder Filmtrailer
|
|
Wer absurden Humor mag, ist beim (natürlich mit KI-Hilfe erstellten) Filmtrailer für „Max Joe Steel – Final Justice: The First Justice“ absolut richtig. Und wenn wir ganz ehrlich sind: Er ist nur ein wenig absurder als die Superhero-Sommerfilme der letzten Jahre … Vor allem aber zeigt er eines: KI-Tools sind ein Werkzeug. Richtig angewendet, können sie die eigene Kreativität beflügeln. Kleine Warnung: Der Trailer ist nicht unbedingt fürs Büro geeignet.
|
|
Was bedeutet …
Agenten
Aktuelle KI-Assistenten geben Antworten auf Fragen oder führen einfache, klar definierte Aufgaben durch. Sie werden aber nicht selbstständig tätig. Komplexere Aufträge benötigen zudem immer einen Menschen als steuernde Figur. KI-Agenten hingegen sollen selbst einen Lösungsweg finden und Ziele autonom oder halbautonom verfolgen. KI-Agenten verwenden Basismodelle für Sprache, Bilderkennung und mehr, um Anweisungen in natürlicher Sprache entgegenzunehmen und komplexe Aufgaben zu bearbeiten. Sie nutzen verschiedene Werkzeuge wie Browser, Suchmaschinen und Code-Compiler, um ihre Ziele zu erreichen. Dabei können sie sich an neue Situationen anpassen und aus Erfahrungen lernen. Ein Beispiel: Ein KI-Agent könnte den Auftrag erhalten, einen Marktforschungsbericht zu erstellen. Er würde dann selbstständig im Internet recherchieren, Daten analysieren, Trends identifizieren und einen strukturierten Bericht verfassen - alles basierend auf einer einfachen Anweisung des Nutzers. Bei halbautonomer Arbeitsweise würde der Agent an bestimmten Punkten Rücksprache mit dem Nutzer halten, um Zwischenergebnisse zu bestätigen oder weitere Anweisungen einzuholen.
|
|
Wir über uns
Gefällt dir dieser Newsletter? Dann empfiehl ihn doch weiter! Verweise dazu am besten auf https://upload-magazin.de/smart-content-report/ Wir haben zwei weitere Newsletter, die für dich relevant sind:
Das Content-Briefing liefert dir immer im Wechsel mit dem Smart Content Report einen praktischen Tipp für deine Content-Arbeit sowie Lesetipps andernorts. Ansehen …
Mit dem Update am Montag wiederum erfährst du einmal pro Woche, welche neuen Inhalte und Angebote du beim UPLOAD Magazin findest. Ansehen …
|
|
|