Julian Grosse Bio

Julian Grosse ist Computational Linguist, Associate Lecturer for German Language an der Arden University, hat in der Oxford University Press als Language Engineer gearbeitet und beim Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) als Researcher Chatbots untersucht. Wir freuen uns, heute mit Julian eine Perspektive aufzuzeigen, für ein tieferes Verständnis im beruflichen und privaten Umgang mit LLMs wie ChatGPT, Gemini und Co.

-

Vielleicht ist es dem geschuldet, dass wir beruflich und auch privat irgendwie immer an KI denken, aber ich habe manche Leute über Dich als "AI Linguist" sprechen hören. Bist Du ein AI Linguist?

Benjamin Wingerter, Digital Strategy Senior Consultant at Digital Loop

Ja, das kann man so sagen. Wenn wir über Computer und Sprache sprechen, dann gibt es an künstlicher Intelligenz kein Vorbeikommen. Innovationen in Hardware und Software haben es uns ermöglicht, mit künstlicher Intelligenz immer komplexere Aufgaben anzugehen. Mittlerweile zählt dazu auch die menschliche Sprache.

Du bist also eigentlich ein Premium-Übersetzer zwischen zwei Welten: einerseits unserer Menschensprache mit allen Nuancen wie Stimmung, Suggestion und Mehrdeutigkeit, die oft von individuellen, persönlichen Erfahrungen geprägt ist, und andererseits sprichst du auch "KI", also das, was LLMs generieren. 

Sprache verstehen und Übersetzen von Mensch zu Maschine

Jedenfalls höre ich Viele – auch Entscheider – sagen, dass KI, also Chatbots, uns „verstehen“. Wenn Du diese Annahme als Experte betrachtest: In welchem Sinne kann man bei heutigen Sprachmodellen überhaupt von Verstehen sprechen? Und wo wird der Begriff problematisch?

Ich denke, der Begriff des „Verstehens“ ist vor allem irreführend. Denn „Verstehen“ geht für uns mit allerlei Erwartungen einher. Es suggeriert eine Autonomie, die ein LLM intrinsisch nicht hat. Für mich reden wir bei menschlichem „Verstehen“ auch von Dingen wie einem Gedächtnis, Emotionen oder dem direkten Erleben der physischen Welt. Wenn wir solche Fähigkeiten in ein LLM hineinprojizieren, dann hindert uns das daran, das eigentliche und durchaus reale Potential dieser Technologie zu nutzen.

Wenn beispielsweise eine Person versucht, durch fremdsprachige, drohende oder manipulative Prompts an sensible Unternehmensdaten zu gelangen, dann kann ich mich nicht auf den gesunden Menschenverstand des LLMs verlassen, um das als Gefahr zu enttarnen. Gleichzeitig kann ich mit den richtigen Prompts ein LLM nutzen, um Sicherheitsrisiken zu identifizieren und zu melden und so mein Unternehmen – im Zusammenspiel mit weiteren Sicherheitsmaßnahmen – zu schützen.

Aber wir sollten das Kind nicht mit dem Bade ausschütten. Denn auch wenn ich mich sträube, LLMs den Begriff des "Verstehens" zuzuschreiben, sind die Errungenschaften dieser Technologie im Bereich kognitiver Aufgaben unbestreitbar und aus unternehmerischer Sicht bald unabdingbar.

Sprachrisiken und Erwartungshaltung von Menschen an die Maschine 

Sprache wirkt oft harmlos, weil sie so vertraut ist. Wo siehst Du die größten Risiken, wenn Unternehmen Sprache in KI-Systemen nicht ernst genug nehmen?

Sprache ist in allererster Linie Kommunikation und Kommunikation betrifft jedes Unternehmen. Durch den enormen Durchbruch der generativen KI in Bezug auf Sprache erwarten Kunden zunehmend persönliche, unmittelbare und lösungsorientierte Kommunikation. Wenn ein Unternehmen das nicht leisten kann, dann werden sich Kunden bei der Konkurrenz umschauen. 

In unserer Sprache gibt es also kein "Richtig" oder "Falsch". Von der KI erwarten wir aber die "richtige" Antwort. Diese Erwartungshaltung steckt auch ganz tief in mir selbst und ich muss mich immer wieder daran erinnern, dass ich damit vermutlich oft enttäuscht sein werde. Wie blickst Du auf die Erwartungshaltung von Menschen im privaten Alltag und im Berufsleben bei der Verwendung von KI?

Was mich an der KI so begeistert, ist, dass sie mir mein eigenes fehlendes Verständnis aufzeigt. Häufig bekomme ich genau dann nicht die „richtige“ Antwort aus dem LLM heraus, wenn ich „richtig“ für mich selbst noch gar nicht zulänglich definiert habe. Die meisten Problemstellungen, sowohl im Privaten wie auch im Beruflichen, haben keine einzelne, rationale Lösung. Stattdessen sind sie das Produkt zahlreicher Erwartungen, Präferenzen und Prioritäten.     

KI-Output-Qualtität: Halluzinationen, KPIs

Wenn Text von LLMs generiert wird, sprechen wir schnell von "Halluzinationen". Die KI-Anbieter arbeiten bereits daran, die Korrektheit ihrer Outputs zu verbessern. Wie schätzt Du die Entwicklung ein und könnten Anwender:innen vielleicht auch etwas beisteuern?

Halluzinationen sind ein Beispiel dafür, wie unsere Erwartungen an die KI enttäuscht werden können. Denn wir gehen davon aus, dass die KI uns „versteht“. Aus dieser Perspektive sind Halluzinationen schwer nachzuvollziehen. Das Problem ist allerdings, dass der Output von KI darauf optimiert ist, wie wahrscheinlich eine Antwort ist, und nicht, wie richtig sie ist! Ob das auf dasselbe hinausläuft, bleibt abzuwarten. In der Zwischenzeit helfen Anwender:innen durch ihre Interaktionen und Daten dabei, Halluzinationen seltener zu machen, also die praktisch erlebte Lücke zwischen wahrscheinlich und richtig zu verkleinern.

Praktischer Einsatz in Unternehmen

In allen guten Unternehmen wird mit KPIs wie Conversions, ROI und Zeitersparnis bewertet, wie gut AI bereits eingesetzt wird. Manchmal kommt noch dazu, wie viel Anteil der “Human in the Loop” noch haben muss, damit die Qualität der KI-Outputs stimmt. Wenn man sich das aus sprachlicher Sicht anschaut: Welche Kriterien werden heute genutzt, um AI-Outputs zu bewerten, und wo siehst Du mögliche Blindspots?

AI-Outputs können quantitativ und qualitativ bewertet werden. Quantitativ bedeutet, dass die von dir angesprochenen KPIs optimiert werden. Das Ergebnis ist zuweilen „AI-Slop“, also Massen an qualitativ minderwertigem Content, die schnell und kostengünstig produziert werden können. Qualitativ hingegen fokussiert sich darauf, dass Expert:innen den produzierten Content als gut betrachten. Ein Blindspot ist das fehlende Gleichgewicht der beiden Kriterien. Sowohl quantitative als auch qualitative Beurteilungen sind unabdinglich, besonders bei generativer KI. 

In 2025 ging es damit los, dass KI mit KI kommuniziert. Autonome Agenten sollen jetzt unsere Reisen planen und dafür auch die Flüge buchen, aber nicht bei einem Reisebüro, sondern bei einem weiteren KI-Agenten eines Reiseanbieters. Und unser KI-Assistent am Arbeits-PC soll spezialiserte Agenten beauftragen und überwachen, die individuelle Teilschritte eines größeren Workflows ausführen. Welche Rolle spielt Sprache, wenn KI-Agenten miteinander handeln?

Maschinen, die untereinander kommunizieren, sind erstmal nicht an menschliche Sprache gebunden. Ganz im Gegenteil, es gibt weit effizientere technische Signale zur Kommunikation. Menschliche Sprache ist insofern essenziell für moderne KI, dass sie ihr ermöglicht, auf das gesamte online niedergeschriebene Wissen der Menschheit zuzugreifen. Zudem haben wir Menschen das Bedürfnis, den Generierungsprozess der KI nachzuvollziehen. Und dafür brauchen wir eine sprachliche Repräsentation dieser Prozesse!

Wenn Du auf die nächsten zwei bis drei Jahre schaust: Was sollten Unternehmen heute anders machen, wenn sie KI sprachlich sauber und nachhaltig einsetzen wollen?

Für mich bedeutet unternehmerischer Erfolg mit Künstlicher Intelligenz ein Verschmelzen von technischer Expertise und unternehmensspezifischer Expertise. Die relevanten Menschen in einen Raum zu kriegen, offen zu sein für die Expertise der anderen Personen, mit Bescheidenheit und Neugier gemeinsam zu lernen und zu experimentieren – das sind für mich Schritte, um künstliche Intelligenz nachhaltig einzusetzen. Ich verstehe meinen Job als Computational Linguist  an dieser Schnittstelle zu agieren und zu vermitteln.

Das Menschliche im System

Gibt es etwas, das Dich an der aktuellen KI-Debatte besonders stört, oder etwas, das Deiner Meinung nach viel zu selten gesagt wird?

Ich denke, das Menschliche kommt in der Debatte zu kurz. In der Arbeitswelt erlebe ich immer wieder, wie wichtig menschliche Beziehungen für ein Unternehmen sind. KI und Automatisierung können uns dabei helfen,  schneller, klarer und präziser auf den Kern von Problemen zu stoßen. Und dieser Kern beinhaltet meiner Meinung nach zunehmend häufig menschliche Fragen.

Danke für Deine Zeit und Deine fachliche Einschätzung! Das Thema KI und wie wir mit ihr unsere privaten und beruflichen Ziele leichter, schneller und vielleicht effizienter erreichen können, wird uns noch viele Jahre begleiten. Dich als Fachmann an unserer Seite zu haben, ist enorm wertvoll und irgendwie auch beruhigend.