Smart Content Report #3
ChatGPT, aber privat, kostenlos und individuell angepasst?
ChatGPT kann faszinierend und hilfreich sein. Ein erhebliches Problem ist allerdings der Datenschutz. Das gilt vor allem für den Einsatz in Unternehmen. Bei intensiver Nutzung können ebenso die Kosten relevant werden. Und je stärker die KI-Tools zum Einsatz kommen, desto eher wünscht man sich einen Helfer, der auf die eigenen Aufgaben spezialisiert ist und das interne Fachwissen einer Organisation nutzt. Eine Option dafür sind Open-Source-Projekte, die sich lokal installieren und nutzen lassen. Einige davon wie das aktuelle Beispiel Smaug-72B erzielen in Tests Ergebnisse auf dem Level kommerzieller Angebote wie OpenAIs GPT 3.5 oder Mistral Medium. Open Source bedeutet in diesem Fall, dass sich das Sprachmodell herunterladen und frei nutzen lässt. Wie immer solltest du die Lizenz genau ansehen, vor allem wenn es dir um den kommerziellen Einsatz geht. Um es auf dem eigenen Rechner auszuprobieren, gibt es Applikationen wie LM Studio oder Jan, die versuchen, die Komplexität des Themas in eine nutzerfreundliche Oberfläche zu verpacken. Profis werden oftmals die Kommandozeile bevorzugen. Auf der Website Hugging Face findet sich schließlich eine breite Auswahl an Modellen, die oftmals speziell für eine Aufgabe nachtrainiert wurden. Dieses Extra-Training wird als fine tuning bezeichnet – siehe dazu Smart Content Report #2. Warum also überhaupt für ChatGPT zahlen? Ist es nicht viel sinnvoller, ein solches Werkzeug direkt auf dem eigenen Rechner zu betreiben? An sich ja, allerdings mit Einschränkungen: 1. Die leistungsfähigsten Sprachmodelle benötigen sehr viel Arbeitsspeicher (RAM) und das auf der Grafikkarte. Das wird schnell teuer. 2. Performance: Je größer das Sprachmodell, desto langsamer kommen die Antworten. Wichtige Messwerte sind die Wartezeit bis zum Start der Antwort (time to first token) und die Geschwindigkeit in der die Antwort ausgegeben wird (token per second). Für Chatfunktionen kommen deshalb eher kleinere Modelle in Frage, die schneller reagieren, aber dafür in der Regel weniger leistungsfähig sind. Spielt die Antwortzeit keine große Rolle, da das Sprachmodell beispielsweise seine Aufgabe im Hintergrund erledigen kann, sieht die Beurteilung wieder anders aus. 3. Die nutzbare Kontextlänge eines lokalen Sprachmodells ist meist deutlich kleiner als bei kommerziellen Anbietern. Das meint: Wie viel Input kann die KI auf einmal überblicken? Wird der Inhalt des Chats zu lang, gehen Informationen verloren. 4. Viele Tests für Sprachmodelle (gern als Benchmarks bezeichnet) lassen sich manipulieren. Insofern solltest du Toplisten mit einer gesunden Portion Skepsis betrachten. Glaubwürdig ist vor allem die Chatbot-Arena, bei der jeweils zwei anonyme Sprachmodelle eine Antwort geben und die Nutzer bestimmen, welche ihnen besser gefällt. Letztlich helfen hier allerdings nur eigene Tests. Das geht etwa mit dem kostenlosen Hugging Chat. Trotz dieser Einschränkungen ist es heute bereits möglich, innerhalb des Unternehmens KI-Helfer bereitzustellen, die keine Daten nach außen senden, auf ihre Aufgabenfeld spezialisiert sind und dabei interne Informationen nutzen. Das muss zudem nicht immer in Form eines Chatbots passieren. Denkbar ist es ebenfalls, dass die KI beispielsweise das CRM oder die Analytics-Plattform nach nützlichen Einblicken durchsucht. - Jan Tißler, UPLOAD Magazin
|