Zwei Jahre im Bereich der generativen KI – ein Rückblick

Seit nunmehr knapp über zwei Jahren erleben wir eine fortschreitende Demokratisierung im Bereich der Künstlichen Intelligenz (KI). Mit dem Aufkommen des LLMs ChatGPT waren wir plötzlich alle in der Lage, KI, genauer gesagt generative KI, zu nutzen und selbst zu erleben. Parallel zu den Sprachmodellen kamen auch viele andere Modelle hinzu, wie beispielsweise Bildgenerierungsmodelle (Midjourney, DALL-E 3) oder Audioanbieter wie Suno oder ElevenLabs. Dieser Trend wurde angestoßen und wird auch nicht mehr abreißen.

Im September 2024 verzeichnete ChatGPT 3,1 Milliarden Visits, was die enorme Reichweite dieses Tools verdeutlicht. Dabei hat sich ChatGPT über die letzten zwei Jahre stark weiterentwickelt, denn es gab mehrere Updates der Modelle. Mittlerweile ist das multimodale GPT-4 das Standardmodell, das von ChatGPT genutzt wird. Es gibt auch schon fortgeschrittene Modelle wie das o1-preview-Modell, das etwas anders angepromptet werden muss, da es ein stärkeres Reasoning integriert hat. Einfach gesagt: Dieses Modell enthält eine integrierte Chain-of-Thought-Struktur, die es ihm ermöglicht, Prompts besser zu verstehen. Dabei kann es sogar nachteilig sein, zu viel Kontext oder eine eigene Chain-of-Thought-Vorgabe zu liefern.

Die erweiterten Voice-Funktionen und die Einführung von SearchGPT als Suchmaschine haben die Funktionalitäten rund um ChatGPT nochmals deutlich attraktiver gemacht. Dennoch nutzen viele Menschen generative KI falsch. Hier möchte ich auf drei häufige Probleme eingehen:

1.Missverständnis als Suchmaschine

Viele Nutzer:innen missverstehen ChatGPT als Suchmaschine und verwenden es wie Google. Dies kann fatale Folgen haben. Da ChatGPT ein Sprachmodell ist, das auf stochastischen Annahmen basiert, kann es schnell zu sogenannten Halluzinationen kommen. Die Trainingsdaten reichen aktuell nur bis Oktober 2023 (Stand: 1.12.2024). Wer also Informationen zu aktuellen Ereignissen erfragt, muss mit falschen Ausgaben rechnen, es sei denn, SearchGPT wird genutzt, was jedoch in den meisten Fällen manuell aktiviert werden muss.

2. Naiver Umgang mit Ergebnissen

Nutzer:innen gehen häufig zu unkritisch mit den Ergebnissen von Sprachmodellen um. Obwohl die Ausgaben von ChatGPT, insbesondere für Anfänger:innen, meist plausibel klingen, sollten sie immer hinterfragt werden. Oft werden die ersten Ergebnisse ungeprüft übernommen und beispielsweise in LinkedIn-Posts integriert. Das Resultat sind generische Floskeln, die sich eintönig anhören. Solche Phrasen kennt man nur allzu gut:

            •          „Teilt eure Meinungen in den Kommentaren.“

            •          „Lasst uns über die Zukunft des Marketings diskutieren.“

Von den zahlreichen Emojis, die LinkedIn regelrecht überfluten, ganz zu schweigen.

3. Fehlendes Verständnis für Sprachmodelle

Viele Einsteiger:innen haben ein falsches Verständnis davon, wie Sprachmodelle funktionieren, und sind enttäuscht, wenn die Ergebnisse nicht ihren Vorstellungen entsprechen. Dies führt sogar dazu, dass manche die Nutzung generativer KI ganz aufgeben und dadurch die potenziellen Effizienzgewinne nicht nutzen. Hier ist eine fundierte Schulung notwendig, um ein realistisches Bild davon zu erhalten, was generative KI aktuell leisten kann – und was nicht.

Die Fortschritte in diesem Bereich sind enorm, und ich bin sehr gespannt, wo wir in zwei Jahren stehen werden.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen