Podcast | 4. April 2025
"Zwischen Skript und KI: Conversational AI im Spannungsfeld von Design, Technik und Ethik" mit Manja Baudis

In dieser Auftaktfolge der neuen Interview-Reihe im UX & Usability Podcast spricht Frede mit Manja Baudis, Gründerin der Agentur Die Lautmaler, über den Stand und die Zukunft von Conversational AI. Manja gibt einen tiefen Einblick in die Praxis und Theorie von sprachbasierten Systemen – von geskripteten Chatbots bis hin zu LLM-basierten Lösungen. Im Gespräch werden nicht nur technologische Unterschiede erläutert, sondern auch ethische Fragestellungen wie Bias, Inklusion und Datenschutz thematisiert. Manja zeigt praxisnah auf, wie menschliche Kommunikation nachgebildet werden kann, welche Herausforderungen der Kontextbezug mit sich bringt und warum Generative AI zwar vielversprechend, aber keineswegs ein Selbstläufer ist. Wer verstehen will, wie Sprache, Design und Technik im UX-Kontext verschmelzen, sollte diese Folge nicht verpassen.

Bitte um diesen Podcast zu hören.

Hören bei


Manja Baudis

Manja Baudis ist Gründerin der Berliner Agentur Die Lautmaler, die sich auf Conversational AI Design spezialisiert hat. Seit über 15 Jahren gestaltet sie sprachbasierte Dialogsysteme – von regelbasierten Chatbots bis hin zu modernen LLM-Integrationen. Mit einem Hintergrund in Computerlinguistik und einer Passion für nutzerzentrierte Kommunikation gehört sie zu den führenden Expertinnen auf diesem Gebiet im deutschsprachigen Raum.


Themen

Links und Ressourcen

Agentur Die Lautmaler: www.lautmaler.de/
ChatGPT von OpenAI: chat.openai.com
Sipgate Chatbot (Beispiel aus der Praxis): www.sipgate.de
Artikel zu Bias in AI (allg.): hbr.org/2023/07/how-to-reduce-bias-in-ai
Tools zum Prototyping: Voiceflow (www.voiceflow.com), Botpress (botpress.com)


Transkript

[00:00:00] **Frede (Moderation):** Hallo und herzlich willkommen zur ersten Ausgabe der UX-Fokus-Interviews des UX & Usability-Podcasts. Ich freue mich sehr, dass ihr wieder eingeschalten habt. Wer jedoch für stundenlanges Geplänkel zwischen Matthias und mir hier ist, den muss ich ein bisschen enttäuschen. Erst in der nächsten Ausgabe könnt ihr euch wieder darauf freuen.

Ich freue mich dafür umso mehr, dass wir einen wunderbaren Gast hatten, der euch sehr tiefe Einblicke in das Thema Conversational AI geben wird. In dieser Episode beschäftigen wir uns mit den Fragen, was macht gutes Conversational Design aus, warum reicht es nicht, einfach ein KI-Modell anzubinden und wie verändert Generative AI die Arbeit mit Sprache.

Ich freue mich sehr, dass Manja Baudes, Gründerin von Die Lautmaler und erfahrene Conversational AI-Designerin, ihre Perspektive auf eine Disziplin geändert hat. Die oft unterschätzt wird, teilt. Wir sprechen über Unterschiede zwischen geskripteten Dialogen und LLM-basierten Systemen, über technologische Fortschritte, ethische Herausforderungen und darüber, warum menschliche Kommunikation immer das Ziel bleibt, aber nie vollständig erreicht wird.

Und dabei wünsche ich euch jetzt ganz viel Spaß.

Zunächst erstmal freue ich mich sehr, dass du heute bei uns bist, Manja. Und bevor wir starten, vielleicht magst du dich unserer Community kurz vorstellen und uns erzählen, was du so machst und wie du zu dem heutigen Thema gekommen bist.

[00:01:47] **Manja Baudis:** Also ich bin eine sehr klassische Conversational AI-Designerin und habe die Lautmaler gegründet und mache es bei den Lautmalern jetzt auch.

Also diese Rolle führe ich da jetzt schon seit sehr, sehr, sehr vielen Jahren aus. Ich habe das ursprünglich mit einem Freund gegründet. Seit schon 2007, das ist schon verdammt lange her. Und so, wie wir jetzt sind in der Konstellation, gibt es uns seit 2017. Aber ich mache das eben, wie gesagt, schon seit sehr vielen Jahren alleine.

Und als Conversational Designerin, genau. Und dahin gekommen bin ich sehr klassisch über mein Studium tatsächlich. Ich hab halt Computerlinguistik studiert und war aber nicht so, nicht so technikaffin, also nicht ganz so technikaffin und nicht ganz so, lag mir nicht ganz so zu programmieren, von daher bin ich eher in die Designrichtung gegangen und das gibt's da halt auch, also es gibt da beide, beide Strömungen sozusagen, sehr technisch oder eher designlastig und ich hab mich halt fürs Design entschieden und dann halt auch ziemlich schnell selber gegründet.

Und das mache ich seitdem.

[00:02:45] **Frede (Moderation):** Ja, sehr cool. Und da bist du ja auch die perfekte Frau, um uns mal kurz zu erklären, was ist Conversational AI eigentlich?

[00:02:55] **Manja Baudis:** Ist ein bisschen schwieriges zu beschreiben, weil das ist ja jetzt, das ist der neueste Begriff, den wir dafür haben. Aber eben seit 2007 haben wir da, weiß ich nicht, wie viele Begriffe für gehabt, die eigentlich ja immer dasselbe bezeichnet haben.

Ja, sehr cool. Und es ändern sich halt immer hintendran nur die Technologien und jetzt haben wir eine neue Technologie, jetzt gibt es GenAI, die wir nutzen, deswegen ist es jetzt nicht mehr conversational design oder conversational UX, sondern conversational AI. Das heißt, das ist jetzt so die Technologie integriert.

Was wir tun, ist aber seit eigentlich den Anfängen immer dasselbe. Wir versuchen halt, diese menschliche Kommunikation abzubilden, nachzubilden, um, wenn wir mit Systemen sprechen. Und das hat sich eigentlich nicht geändert, weiß ich ja, das Zielbild hat sich nicht geändert. Die menschliche Kommunikation ist immer noch sehr ähnlich.

Wir nutzen immer neue Technologien. Deswegen ist eigentlich das, was wir tun, das Gleiche. Wir versuchen da halt hinzukommen. Und dadurch, dass wir immer neue Technologien kriegen, wird es auch immer besser. Also wir müssen sehr viel weniger Design machen, je bessere Technologie wir bekommen. Und das ist jetzt gerade mit der AI so.

Und was, ja, das steckt eigentlich hinter dem, was conversational AI ist. Wir versuchen, diese Dialoge abzubilden.

[00:04:02] **Frede (Moderation):** Und ich würde jetzt gerne mal einen Blick auf die wesentlichen Unterschiede zwischen traditionellem UX-Design und conversational UX-Design werfen. Wo liegen die denn?

[00:04:14] **Manja Baudis:** Also das, diese Frage haben wir, die bekommen wir auch öfter und ich würde gar nicht sagen, es gibt keinen Unterschied, die beiden ergänzen sich immer noch.

Ich würde eher sagen, dass Conversational UX Design auch ein klassisches UI Design ist. Es ist gar kein UX Design, es ist ein UI Design, es ist ein bestimmter Kanal, den wir nutzen, für den wir halt Interaktionen gestalten. Von daher brauchen wir auch, bevor wir Conversational UX Design machen, Design betreiben.

Klassisches, traditionelles UX-Design. Das heißt also alle Prozesse rundherum müssen eigentlich klar sein, bevor wir anfangen, Dialoge zu designen für genau irgendeinen Sachverhalt oder irgendeinen Support oder irgendeine App, die wir halt abbilden müssen. Das heißt, ich würde gar nicht sagen, es gibt da traditionelle Unterschiede, sondern die bauen aufeinander auf.

Und ja, Conversation-UX-Designer tun was anderes als UX-Designer, ist ja ganz klar, wenn sie aufeinander aufbauen. Wir kümmern uns halt eben um diese Dialoge und da sind halt, das ist halt sehr eingeschränkt. Der, dieser Channel ist halt sehr, sehr eingeschränkt. Wir haben halt nur Sprache und in den meisten Fällen halt noch nicht mal irgendein Interface oder irgendwas Visuelles dazu als Unterstützung, sondern oftmals ja auch wirklich nur gesprochene Sprache, ohne dass man was sieht, oder ohne dass man irgendwas drücken kann.

Was eigentlich sonst ja im klassischen UX-Design oft der Fall ist. Also es gibt ja oft Bezug zu visuellen Gestaltungen, würde ich mal von ausgehen. Oder ist das das klassische Bild beim UX-Design? Und da ist da der Unterschied. Wir haben halt keine großen visuellen Kommunikationswege, sondern halt eben diese Sprache.

Das ist, glaube ich, der grobe Unterschied. Aber sonst würde ich die beiden eben gar nicht gleichsetzen. Es gibt die oder es gibt die. sondern die ergänzen sich halt, oder müssen sich ergänzen tatsächlich, weil wir tatsächlich beides brauchen. Aber wenn du so, also wenn du so auf das, äh, rausmöchtest, was wir da tun, dann gibt es eben Unterschiede in dem, wie wir Dinge abbilden können.

Was sie halt im klassischen UX-Design, wo man von ausgeht. Man hat eben visuelle Oberflächen, man muss ein bestimmtes Ziel, ähm, erreichen und man kann auch ständig Feedback geben. Das ist halt bei uns immer nicht so richtig gegeben. Es ist halt ein bisschen schwierig, irgendwas zurückzuspiegeln, was wir verstanden haben, oder zurückzugeben, wo wir uns gerade befinden in irgendeinem Dialog.

Da sind wir halt sehr nah an der menschlichen Sprache und uns fehlen halt so Mechanismen, die eigentlich Maschinen haben, um dir ein Feedback zu geben. Und da wird's ein bisschen tricky, weil, ja, wir müssen zwar all das tun, was sonst Maschinen irgendwie zurückgeben müssen. Hups, ein Fehler oder keine Ahnung, da wird halt ein Pop-up aufgeblendet oder es gibt, weiß ich nicht, was auch immer.

Untertitel von Stephanie Geiges Das ist für uns ein bisschen schwieriger, das halt, um, immer noch darzustellen, was die Maschine jetzt für ein Problem hat mit diesen menschlichen Kommunikationswegen und da unterscheidet sich's.

[00:06:45] **Frede (Moderation):** Vielleicht können wir nochmal einen klitzekleinen Schritt zurückgehen. Du hattest ja vorhin schon generative AI angesprochen und vielleicht könnten wir auch da nochmal ganz kurz definieren, was das eigentlich ist und dann gibt's ja auch noch geskriptete Chatbots.

Wo ist denn genau der Unterschied?

[00:07:00] **Manja Baudis:** Ja, deswegen vorhin dieses bisschen Conversational AI ist eigentlich alles und umfasst eigentlich so von geskripteten Chatbots bis zu Gen AI eigentlich alles. Ich glaube, das steckt da drin, solange es eben so eine sprachliche Interaktion gibt. Ich glaube, das ist ein bisschen bei Conversational AI, was der zusammenhaltende Punkt ist sozusagen.

Und geskriptete Dialoge, da kommen wir halt her. Also damit habe ich auch angefangen. Früher waren das halt sehr regelbasierte Bots, die gibt es immer noch. Also man schreibt halt wirklich, man skriptet es vorher, man schreibt Dialoge, wie die aussehen sollen und wie sie auch am Ende immer wieder reproduziert werden.

Also du stellst eine Anfrage und du wirst auch immer die gleiche Antwort bekommen. vielleicht ein bisschen randomisiert, das gibt's schon auch, dann kriegst du nicht immer ganz die gleiche Antwort, aber im Prinzip schon, du kriegst auf eine Frage immer die gleiche Antwort und die ist vorher gegeben und die sind regelbasiert und die werden dann gezogen.

Und das ist auch immer noch gut für bestimmte Anwendungsteile heute noch, also für FAQ-Fragen, wo man das auch erwartet, dass Dinge halt beständig und immer wieder gleich beantwortet werden, sind die auch gut und tun, was sie sollen. Da muss nicht viel gelernt werden, das muss immer mal abgedatet werden.

Die sind deswegen auch ein bisschen wartbarer, weniger komplex und auch ein bisschen schneller gebaut und kosten ein bisschen weniger. Und mit den neuen Technologien jetzt, es gibt für uns sehr viele hybride Ansätze gerade. Also wir nutzen ja nicht bei dem, was wir für unsere Kunden bauen. Das sind ja keine kompletten generative AI Anwendungen, sondern wir nutzen dann auch LLM Models und so weiter.

Um halt so hybride Anwendungen zu bauen, die sind halt irgendwo dazwischen. Also es gibt dann immer noch eine Orchestrierung von Dialogen rundherum. Und an bestimmten Stellen wird halt an die AI übergeben und die übernimmt dann und gibt wieder zurück, damit man auch ein bisschen Kontrolle über den Dialog behält.

Da sind wir heute so dazwischen und ja, komplett Gen-AI, dann wird halt alles, also es wird halt verstanden und auch generiert, komplett übernommen von einem Model oder von einer AI. Das sind halt sehr andere oder sind andere Ansätze. Die werden ja auch für sehr viele andere Sachen benutzt. Die werden ja auch für Video Generierung benutzt oder für Audio Generierung.

Und wir sind da so dazwischen. Wir brauchen ja nur diesen einen Part. Und wir nutzen jetzt eben auch diese Gen AI Technologie, um halt Dialoge flexibler zu machen.

[00:09:12] **Frede (Moderation):** Du meintest es ja gerade schon, das steckt da alles so ein bisschen mit drin. Warum denkst du, dass diese Integration von Generative AI in Conversational UX Design so wichtig für die

[00:09:24] **Manja Baudis:** UX-Branche ist?

Ich weiß nicht, ob es wichtig ist für die UX-Branche. Ich weiß, dass es wichtig ist für unsere Branche, weil es einfach die Technologie ist, die uns wahnsinnig voranbringt. Also für uns war ja immer wichtig, Benutzer zu verstehen, tatsächlich die gesprochene Sprache zu verstehen, was ja wirklich bisher immer eine Herausforderung war.

Es war immer nur ein Annähern an das, okay, halbwegs eine Intention zu erkennen, aber ein wirkliches Verständnis, schwierig und auch kontextsensitiv zu bleiben, also auch Follow-up-Fragen immer noch zu verstehen, dass sie sich immer noch auf das Gleiche beziehen oder eben auch nicht auf das Gleiche beziehen, war auch ein Riesenproblem für uns.

Und genau das kriegen wir sehr gut gelöst mit dieser neuen Technologie und wir müssen sie einfach schlicht nutzen oder wir freuen uns, dass wir sie nutzen können, weil es das sehr, sehr, sehr viel einfacher und sehr, sehr, sehr viel menschlicher macht. Ich, ob das für die komplette UX-Branche so gilt, weiß ich nicht.

Ich kann halt nur so ein bisschen aus meiner Warte sprechen, dass ich es ja auch als Tool benutze, wie ich jetzt arbeite. Also ich benutze es ja nicht nur eben in den Anwendungen, die wir bauen am Ende, sondern ich benutze es ja selber als Mittel zum Zweck, um diese Anwendung wieder bauen zu können. Das heißt, ich generiere mir Trainingsdaten, ich generiere mir auch Codeschnipsel, wenn ich sie brauche.

Ich generiere mir Designs, ich generiere mir Prompts, die ich brauche. Also ich nutze es als Tool auch wahnsinnig viel, um da voranzukommen. Und das wird für die gesamte UX-Branche so sein. Also ich finde es zum Beispiel auch sehr wichtig, wenn ich, um, Usability-Tests mache, auch da um auf Ideen zu kommen, wie mache ich es am besten, gebe mir mal ein Skript, wie ich das tun kann, nutze ich auch AI-Tools, um das machen zu können.

Und ich denke, das ist, das ist wahrscheinlich übergreifend in UX und Conversational UX.

[00:11:01] **Frede (Moderation):** Es ist natürlich ganz klar, dass Wir, wenn wir über dieses Thema sprechen, auch über Chat-GBT sprechen und jetzt würde mich natürlich interessieren, welche Vor- und Nachteile siehst du denn in der Nutzung von geskripteten Chatbots im Vergleich zu diesen generativen Lösungen wie eben Chat-GBT?

[00:11:18] **Manja Baudis:** Ja, so ein bisschen waren wir ja vorhin schon dabei, eben du hast es halt vorhin schon gesagt. voll in der Hand bei den geskripteten Dialogen. Die sind halt vorhersehbar. Man gibt halt vorher vor, was sie ausgeben soll. Man kann da auch promptgenau, wortgenau ja hinschreiben, was man hören möchte. Man kann das auch tunen, damit es eben für Voice-Dialoge zum Beispiel auch ordentlich klingt.

Und das kann man alles vorhersehen. Und dann eben, wie gesagt, kriegst du ja auch auf jede Antwort, die gut ist. Frage, äh, deine Frage immer wieder die gleiche Antwort. Also das wird sich auch nicht ändern. Das ist zum einen ein Nachteil, weil es halt sehr repetitiv ist und man nicht sehr viel Varianz hat.

Zum anderen aber auch sehr kontrollierbar. Du kriegst halt einfach die gleiche Antwort. Und das ist zum, manchmal für manche Anwendung durchaus ein Vorteil, wenn das gewünscht ist, dass das kontrollierbar bleibt. Also wir sehen das jetzt immer wieder, dass wir integrieren wollen. Beides, AI und nicht AI sozusagen.

Und du ja nicht immer unbedingt den gewünschten Effekt erzielst mit ner AI, den du haben willst und dann aber feststellst, ich brauch die Flexibilität jetzt gar nicht, dann nehm ich doch nen geskripteten Dialog. Für die Antwort, die ich immer geben möchte, du musst halt für dieses und jenes Ticket 5,80 Euro bezahlen, das wird immer so sein, da brauch ich nicht viel Varianz, nicht Flexibilität, das kann ich skripten und ich geb's dir halt aus.

Und da sind die... sind die von Vorteil. Aber was wir eben auch schon hatten, dieser Kontextbezug, wenn du Follow-up-Fragen stellst in einem Dialog, die meisten Dialogsysteme schaffen es nicht sehr lange, diesen Kontextbezug zu erhalten, um wieder zu verstehen, dass du noch eine Frage zu dem vorher hattest.

Oder überhaupt Bezug zu nehmen auf das, was vorher war, und zwar so, dass es nicht Ork-wordig klingt, sondern menschlich. Und das können diese generativen Systeme sehr, sehr, sehr viel besser. Und dafür, ja, dafür nutzen sie ihn, dafür haben sie diesen Vorteil. Sie sind halt mega flexibel, aber sie halluzinieren zum Beispiel, sie geben dir halt nicht immer die, äh, die gleiche Antwort auf die gleiche Frage.

Wir können es auch schwer kontrollieren, das heißt, wir müssen auch selber händisch ja dann gucken, ob die Antworten so stimmen, wie wir sie haben wollen. Wir haben ja auch keine großen Instrumente, die uns jetzt per se sagen, oh, hoppla, da hat er jetzt Quatsch ausgegeben, oder... Das klang jetzt nicht so gut.

Das sehen wir ja auch nur händisch, wenn wir dann wieder Daten kontrollieren im Nachgang. Und das ist natürlich auch ein Problem. Wir können halt in dem Moment, wo das LLM generiert, nicht sagen, wird es richtig sein oder nicht.

[00:13:35] **Frede (Moderation):** Wie in allen Podcast-Interviews, die ich führe, würde ich auch mit dir gerne mal den Blick in die Glaskugel wagen.

Welche Trends siehst du denn in der Zukunft für Conversational AI und Generative AI? Was denkst du, wo geht die Reise hin? Ja,

[00:13:49] **Manja Baudis:** da war ich so ein bisschen lost, weil Trends, keine Ahnung, weil ich bin ja sozusagen Technologienutzer, mein, mein Ziel ist eine menschliche Kommunikation, die ist ja gar nicht so glaskugelig, sondern die ist ja sehr klar, die kennt jeder, jeder weiß das, so, wie, wie das zu funktionieren hat, das ist gar keine Glaskugel, aber Ja, sind da noch nicht.

Also vor allem in diesen, äh, Voice-Dialogen sind wir da nicht. Die klingen nicht natürlich. Wir haben kein, was wir jetzt zwar grad auch nicht machen, weil wir kein normales Gespräch spüren, sondern ein Podcast-Gespräch. Wir unterbrechen uns zum Beispiel jetzt grad nicht, aber in menschlicher Kommunikation kommt das sonst so oft vor, dass man sich unterbricht oder, und dann auch nochmal nachhakt und nur Teile nachhakt.

Und all das gibt's jetzt in Voice-Dialogen nicht mit Systemen. Das ist alles noch nicht da. Und ich hoffe, dass auch sowas... in Zukunft mit diesen AI-Systemen möglich sein wird, dass das noch sehr viel menschlicher wird. Das ist bei Chatbots nicht das Problem, da gibt es das sowieso nicht, aber in Voice-Dialogen merkt man doch noch sehr den Abstand zwischen Mensch und Maschine.

Und das wäre so ein Trend, ja, würde ich mir wünschen, dass da auch so ein bisschen Bewegung reinkommt. Bei mir wäre es wichtig, ich weiß gar nicht, ob das allen anderen Leuten ist, das ist vermutlich völlig egal, aber ich fände es spannend, dass das geht. Und ich denke, es wird halt noch in sehr viel mehr, weiß ich nicht, in anderen Anwendungsbereichen kommen.

Also ich meine, diese Chat und Voicebots sind jetzt zwar schon überall, wir sehen sie nur selten, benutzen sie ja auch alle ungern, aber sie sind ja überall und das wird sich noch verbreiten. Die werden einfach überall sein. Man wird ihnen überall begegnen. Das nehme ich auch schwer an und auch so in anderen Dimensionen, also mit Augmented Reality und Virtual Reality, auch da sind sie sehr wenig vertreten noch und das, Das wird jetzt, glaube ich, auch mit dieser AI-Integration so ein Ding sein, was mehr kommt.

Aber mehr Glass-Kugel habe ich nicht zu bieten.

[00:15:31] **Frede (Moderation):** Na, das war doch schon mal ein ganz guter Ausblick. Vielen Dank dafür. Ich würde jetzt gerne nochmal auf das Thema Ethik schauen wollen. Super wichtig. Was denkst du denn? Welche ethischen Überlegungen sollte man bei der Entwicklung, aber auch bei der Implementierung von conversational AI-Lösungen beachten?

Oder welche sind da einfach besonders wichtig?

[00:15:52] **Manja Baudis:** Da gibt es tatsächlich verschiedene Aspekte und auch welche, die wir schon vor AI hatten. Also es gab ja auch schon die, die Automatisierung birgt ja auch schon so ein paar ethische Aspekte in sich, die wir auch schon diskutiert haben vor AI, weil wir ja Menschen ersetzt haben, sozusagen.

Also klar, in so einem Kundenservice Support, wenn da ein Chatbot oder ein Voicebot eingesetzt wird, dann gehen halt auch... Arbeitsplätze flöten stellen, die genau das eben erledigt haben. Also das ist eine Frage, die hat sich jetzt nicht geändert, aber die wird, glaube ich, massiver noch, weil es eben mehr, auch günstiger wird, sowas zu erstellen und weil es eben verbreiteter sein wird.

Das ist ein Thema. Und was aber mit AI jetzt so mehr dazu kam, sind natürlich diese ganzen Sachen wie Bias, weniger Zugänglichkeit und so weiter. Also es gibt jetzt noch ein breiteres Feld, worüber man sich Gedanken machen muss. Ja, und gerade den Bias, ich glaube, da können wir später, glaube ich, noch ein bisschen mehr drauf eingehen.

Das ist halt ein großes Problem von AI. Shit in, shit out, sagt man immer. Das ist wirklich unser Problem, sozusagen. Wir spiegeln halt das, was wir gerade in unserer Welt haben. Und das spiegelt sich halt in AI wahrscheinlich dann unterm Brennglas ja noch sehr viel mehr. in den Daten, die dann wieder produziert werden aus den Daten, die wir eben reinstecken.

Das ist, glaube ich, so der zweite Aspekt. Den hatten wir früher nicht als ethischen Aspekt. Ich weiß nicht, was noch dazukommt. Klar, Inklusivität. Da haben wir aber auch mit in unserer Branche beziehungsweise in diesem Conversation AI eigentlich ein Problem. Wenn wir nicht ein Zusatzkanal sind zu Web oder so, sind wir ja ein sehr exklusiver Kanal.

Das heißt, wenn irgendwas nur über Voice zugänglich ist, dann ist das natürlich nicht für jeden zugänglich. Und wenn das nur über eine Sprache zugänglich ist, dann ist es auch nicht für jeden zugänglich. Und, um, ja, gerade so Spracherkennungssysteme haben auch immer noch ein Problem mit Nicht-Muttersprachlern und so weiter.

Also von daher haben wir ein sehr großes Problem. Nicht barrierefrei zugängliches Problem, würde ich sagen, was wir schon immer hatten. Aber wir bieten die Möglichkeit halt Kanälen, denen so ein Voice-Kanal fehlt, den dazuzubringen. Das war ja auch mal ein großer Trend, das bei Websites und so weiter zu haben.

Machen wir nicht mehr, aber war ja mal eine Richtung und ist ja auch gar nicht das Schlechteste. Es gäbe halt die Möglichkeit, diesen Kanal überall hinzuzufügen. Aber da sind wir ja noch ein bisschen von entfernt.

[00:18:05] **Frede (Moderation):** Das Thema Inklusivität wäre tatsächlich direkt meine nächste Frage gewesen. Wie man eben sicherstellen kann, dass AI-Lösungen inklusiv und zugänglich für diverse BenutzerInnen sind.

Aber wenn ich das jetzt richtig verstanden habe, ist das superschwer umsetzbar, nicht?

[00:18:21] **Manja Baudis:** Es ist auch nicht, also ist gerade gar nicht das, was wir auch lösen können, weil wir tatsächlich, wir wenden an, in unserem Fall, also wir wenden Large Language Models an und wir bauen Systeme in andere bestehende Systeme, sozusagen.

Das heißt, wir haben gar nicht mehr so viel Spielraum. Wir nehmen das, was da ist und können dann darauf hinweisen, auch nur und auch nur wieder so Aufmerksamkeit dafür schaffen, ey, es gibt das Problem. Also erstens sind wir jetzt nicht barrierefrei, wir sind nicht zugänglich für jeden, es wird Verständnisprobleme geben, es wird Verstehensprobleme geben.

Es wird Verständnisprobleme geben. Und Bias in diesen AI-Modellen, wir bauen sie ja nicht selbst, wir nutzen sie auch nur an und wir können einfach nur dazu beitragen, hinterher zu gucken, gibt es das? Wir können im Vorhinein auch nur sagen, ey, für euren Anwendungsfall ist es wahrscheinlich schwierig, wir müssen von Anfang an mehr gucken, wir müssen sehr viel mehr Testing vorher machen und schon schleifen mit den Benutzergruppen.

drehen, um das sicherzustellen, als dann halt zuzugucken und wir sind in die falsche Richtung gelaufen. Aber viel mehr können wir gar nicht tun, weil wir die, ja, wir trainieren die Modelle nicht selbst, wir wenden halt an. Und ich würde es mir wünschen, es wird mehr, aber es ist ja schon mal ein Schritt, dass wir alle, wir wissen es alle, wir wissen alle drum mittlerweile, glaube ich, also wir Anwenderinnen zumindest.

[00:19:32] **Frede (Moderation):** Und was für unsere ZuhörerInnen immer ganz besonders spannend ist, ist der Blick in die Praxis und ich würde sagen, da steigen wir direkt mal ein. Hättest du vielleicht ein Beispiel für uns, wo conversational AI richtig gut umgesetzt wurde?

[00:19:47] **Manja Baudis:** Es war sehr gut im letzten Podcast, bin ich gefragt worden. Und welches conversational AI findest du so richtig schlecht?

Und das ist mir verdammt leicht gefallen. Und andersrum jetzt, war es relativ gut. Oh, irgendwie hätte ich gedacht, es wird jetzt hier ein bisschen positiver. Ich fand's ja auch gut, es war positiv, aber tatsächlich ist es echt, ist es uns schwer gefallen. Ich hab's auch in unser Daily gebracht und alle gefragt, sag doch mal, was findet ihr gerade wirklich, wirklich gut?

Und es kam nicht viel zurück, muss ich sagen. Ich glaube, also die sind ja nicht sexy. Unsere Anwendungen sind nix, das ist nichts, was irgendwie entertaining ist oder das macht Spaß oder so. In den meisten Fällen ist das ja, du musst da jetzt hin, du musst irgendwas lösen, äh, du musst... mit diesem Ding reden, obwohl du es gar nicht unbedingt wolltest.

Das sind keine Engaging-Systeme in den meisten Fällen, sondern die erfüllen eine bestimmte Aufgabe und du kannst sie dann mit denen lösen und das war es auch. Und ich glaube, das ist zufriedenstellend. Aber das ist nichts, wo man so denkt, wow, was für ein cooles Design. Weil am Ende ist es halt wieder, es ist menschliche Kommunikation und wie gesagt, wir sind da noch nicht, also es ist nichts darüber hinaus, ja, es gibt nichts über dieses menschliche Kommunikation hinaus, wo du dann denkst, wow, krass, was für eine Anwendung, sondern das ist das Ziel und da sind wir auch noch nicht, von daher fällt es mir immer zu schwer zu sagen, ja, das ist richtig, richtig gut, sondern nee, es guckt sich halt weg, es, man merkt nicht, dass es schlimm war, sondern es ist, Aber ja, von daher, wir haben einen Chatbot gebaut für SipGate, den finde ich relativ gut, tatsächlich.

Der tut, was er soll, du kannst seine Anliegen lösen, das ist sehr smooth, er versteht. Finde ich gut. Und finde ich auch immer noch bei den Assistentinnen, selbst wenn sie jetzt keiner mehr nutzt oder wenige, sie nutzen so Assistenten wie Alexa und Google. Die tun in meiner Wohnung auch, was sie sollen. Also sie, ja, machen halt mit die Mucke an, die ich haben will.

Das verstehen sie relativ gut. Aber es ist ja nicht so, ich denke... Krasses Design, haben sie alle nicht. Und ich glaube, das gibt's auch nicht. Es gibt nicht diese Anwendung für Voice Design, die alles übertrifft irgendwann, was man sich so wünscht, was sich jedes Starter wünscht. Hey, das wäre jetzt die Anwendung, damit machen wir viel Kohle und das ist super.

Das gibt es bei uns, glaube ich, nicht. Also der Anspruch ist, wir bilden menschliche Kommunikation irgendwann ab und das ist nichts besonderes. Leider. Eigentlich.

[00:22:09] **Frede (Moderation):** Dann traue ich mich ja jetzt fast gar nicht zu fragen, aber hättest du vielleicht ein gutes Beispiel für Generative AI?

[00:22:15] **Manja Baudis:** Die sind alle top. Also ich nutze JGPT ständig, ja.

Das finde ich top. Ich finde auch diese conversational skills, die es hat, reichen mir, weil da brauche ich sie auch nicht. Also ich teste sie ja gar nicht, ob sie sehr viele conversational skills hat, sondern es ist ja auch sehr zweckgebunden. Das war so am Anfang die Challenge, ein bisschen zu gucken, ha, kann man sie da auch foppen, kann man sie necken, kann man sie irgendwie aufs Glatteis führen, keine Ahnung, was man alles halt so probiert.

Und das hat Chachipiti ja relativ gut gelöst und jetzt ist sie für mich ein Tool halt und tut, was es soll. Also ich, es geht gar nicht mehr ums Sprechen und kann's das gut. Und deswegen verschwindet da auch das Design. Man

[00:22:53] **Frede (Moderation):** sieht's halt nicht. Ist das überhaupt gut messbar? Und wenn ja, eben wie?

[00:23:04] **Manja Baudis:** Kommt drauf an.

Man sagt so oder so. Aber wir nutzen natürlich die KPI, die alle anderen Branchen und so auch nutzen. Es ist halt in vielen Stellen ein bisschen schwieriger, bei uns das zu tun. Tatsächlich, weil es sich schwer abschätzen lässt, ja, war das jetzt zufriedenstellend? Also noch nicht mal so eine Completion Rate ist halt so richtig, richtig klar.

Es gibt halt nicht den Abschluss. Leute kommen halt durch unseren Dialog durch oder eben nicht. Und man kann sie dann in den meisten Fällen fast nur explizit fragen, war, war das jetzt okay oder nicht so und viel mehr, ist halt nicht. Also wir versuchen ja immer Messpunkte auch zu setzen, aber ob das jetzt wirklich irgendwas zufriedenstellend war oder nicht, wissen wir halt nicht.

Und das tun wir wie andere auch dann mit Befragen, das gibt es bei uns auch, war das zufriedenstellend, wir fragen auch nach NPS, auch in Nachbefragung und so weiter, das gibt's alles. Klar, und Messpunkte kann man immer setzen. Was halt bei uns recht wichtig ist, sind halt diese Performance-Sachen von Sprachverstehen und so weiter.

Das kann man relativ gut messen, also wie viele Leute werden da auch verstanden, wie viele Leute bekommen denn die richtige Antwort auf ihre Frage, war es denn relevant. Das kann man auch alles noch messen, muss man halt händisch sehr viel Daten aufbereiten im Nachgang, aber das tun wir auch, das ist A und O, eben zu gucken, wird alles richtig verstanden.

wird eine relevante Information gegeben, sind so die Messpunkte, die wir setzen. Aber ja, es ist aufwendig und es lässt sich nicht so schön, also so Nachbefragungen sind halt relativ schwierig, ich finde das mit einem Pop-up zum Beispiel relativ einfach, aber am Telefon nochmal diese Frage zu stellen und ein NPS zu vergeben zum Beispiel, ist schon relativ nervig und, äh, ja, nicht so, nicht so einfach gemacht.

Aber wir versuchen es und wir lehnen uns an das an, was es gibt. Es gibt keine. besonders abweichenden Methoden, das zu tun, als in anderen Branchen auch.

[00:24:48] **Frede (Moderation):** Auch immer spannend an dieser Stelle sind ja Best Practices. Und vielleicht hättest du da einige für uns, wie man Dialoge natürlich und effizient gestalten kann.

Es

[00:24:58] **Manja Baudis:** gibt sehr viele Best Practice Beispiele, da haben wir auch gestern so ein bisschen drüber überlegt. Es gibt halt, ja, Richtlinien, die es auch im UX Design so gibt, die wir natürlich auch Befolgen, die sind nicht anders und sind halt in ihrer Ausprägung anders. Aber das ändert sich halt auch mit der Technologie tatsächlich.

Also es gab früher andere Best Practices, die wichtiger waren als jetzt. Früher war zum Beispiel das Error Handling eine sehr wichtige Sache, weil... Man halt sehr oft nicht verstanden wurde. Das hat sich aber in der Zeit so ein bisschen verbessert. Man wird jetzt sehr, sehr, sehr viel besser verstanden. Also ist das Error Handling gar nicht mehr das Wichtigste.

Sondern es geht jetzt wieder darum, jetzt brauchen wir ein bisschen mehr Empathie. Es muss ein bisschen mehr Person darüber kommen. Das darf jetzt alles sein. Deswegen ändern sich auch diese Best Practices. Aber am Ende sind Best Practices oder das Zielbild, wie immer, menschliche Kommunikation. Deswegen, ja.

Also, es gibt immer noch diese Sachen, bringen die Leute bitte wieder auf den Pfad zurück, ist halt ein großes Thema. Nach wie vor, wenn man denn irgendwo hinabbiegt und wieder zurückkommen will, sei kontextsensitiv. Kommt auf die Anwendung an. Das ist halt bei uns auch so, wenn du halt ein Wort hast, mit dem du, äh, Zeit verbringen willst, dann muss der nicht unbedingt effizient eine Dialog runter rasseln, sondern der kann sich halt sehr lange mit dir unterhalten.

Und muss aber das Gespräch am Laufen halten und engaging sein. Das heißt, er stellt auch selber immer wieder Fragen oder erzählt auch mal was von sich selbst, wenn du aber ein Kundenservice-Bot hast, dann möchte ich von dem eigentlich nichts Privates wissen. Ich brauche keine Person da, ich brauche da nichts für, ich möchte einfach nur, dass ihr das erledigt, was ich sage.

Und deswegen gibt's, also sind diese Best Practices auch wandelbar sozusagen? Das ist schon sehr abhängig von dem, was du haben möchtest, was du für eine, für einen Anwendungsfall hast. Und es ändert sich wirklich mit der Technologie tatsächlich. Und wie gesagt, Zielbild menschliche Kommunikation, aber auch da weichen wir ja so ein bisschen voneinander ab, da mögen auch die einen eher das und die anderen das eher ein bisschen knapper, von daher.

Auch da, it depends, ja. Aber das A und das O, verstehen, Kontext, sind, glaube ich, die wichtigsten Sachen. Wenn das nicht funktioniert, kannst du den Rest auch sparen.

[00:27:08] **Frede (Moderation):** Wir hatten ja vorhin auch schon mal über Trends gesprochen. Und jetzt würde mich natürlich interessieren, wo hältst du dich persönlich auf dem Laufenden über neue Entwicklungen?

Oder wo würdest du sagen, kann man mehr über das Thema erfahren, wenn man sich dafür interessiert?

[00:27:23] **Manja Baudis:** Also mein Way-to-go ist gerade tatsächlich LinkedIn, komischerweise. Also ja, funktioniert. Ist mittlerweile eine Timeline, die für mich funktioniert. Da poppt relativ viel jetzt zu AI auf. Also man kommt ja fast nicht hinterher.

Ich bräuchte eigentlich schon wieder einen Filter, um mir zu sagen, ey, das ist jetzt was Gutes oder das ist nicht so gut. Das hab ich noch nicht so rausgefunden. Ich muss ja mal nochmal draufklicken und gucken, ob es wirklich was Interessantes ist für mich. Aber ja, es gibt so ein paar Leuten, denen ich da folge und wo ich das Gefühl habe, okay, das, das ist relevant für mich und die Bubble ist ja mittlerweile riesig.

Und sonst, ja, es gibt bei euch ja natürlich auch immer wieder was, tatsächlich, um, Events und so weiter, die wir auch gerne mitnehmen, weil man einfach da den Austausch hat mit Leuten, die nicht unbedingt jetzt genau in unserer Ecke sind. Sondern ein bisschen eben aus dieser UX-Ecke kommen, was uns so ein bisschen fehlt, da über den Tellerrand zu gucken.

Das machen wir schon auch immer. Also irgendjemand von unserer Firma ist immer bei irgendeinem Event dabei und trägt es dann auch zurück. Das ist dann auch gut für mich, wenn das andere mal zusammentragen und mir dann schön präsentieren nach so einem Event. Ja, aber ich bin auch auf TikTok, muss ich zugeben, gebe ich ungern zu.

Aber selbst da habe ich mittlerweile so eine Bubble gefunden. Ich nenne es aber die TikTok Academy. Ist nicht von mir, ist von einer Freundin von mir. Aber funktioniert auch. Also man kriegt es in sehr kleinen Schnipseln, aber dann doch auch immer wieder Impulse, finde ich.

[00:28:47] **Frede (Moderation):** Ja, das sind auf jeden Fall richtig gute Hinweise.

Vielen Dank dafür. Und wir wollen ja jetzt auch bald auf TikTok durchstarten, also es ist überhaupt nicht unangenehm, dass du da unterwegs bist. Das bedeutet ja hoffentlich schon mal einen Follower für uns. Das stimmt. Genau. Ich würde jetzt super gerne nochmal meine Glaskugel rausholen und mit dir gemeinsam da reinschauen.

Wenn du dir eine conversational AI-Lösung Aussuchen könntest, beziehungsweise sie entwickeln könntest. Wie würde die aussehen, beziehungsweise was würde sie den Nutzenden anbieten?

[00:29:20] **Manja Baudis:** Habe ich gestern auch kurz mal darüber nachgedacht. Es kommt nämlich, die Frage kommt ja auch oft. Was wäre denn das, was ist denn so diese Anwendung, die oder die Leute packt.

Aber was mich packen würde tatsächlich, also zum einen ich hätte halt gern dieses sehr natürliche, wirklich sehr natürliche Gespräch. Das wäre mir, also hätte ich gerne mal in Voice, da sind wir eben, wie gesagt, noch nicht. Das wäre so ein Ansatz, was mich treiben würde, halt das komplett mal auszufahren, was wir alles über Gespräche wissen und wirklich da reinzupacken und eben mal so ein richtiges, richtiges eben mit sich unterbrechen und weißt ja gar ja was, Gespräch zu führen.

Und zum anderen hätte ich gerne so einen virtuellen Assistenten, aber für mich, also wirklich einen für mich, weil ich habe so das Gefühl, alle anderen, Also Alexa ist halt virtuelle Assistent, aber ja nicht meiner. Also es ist halt einer, aber nicht meiner. Also ich will einen, der wirklich für mich da ist.

Das muss noch nicht mal, es muss keine persönliche Beziehung sein. Das kann wirklich ein, ein Gerät sein, was sich um Dinge für mich kümmert. Und zwar dann um die, die für mich da sind. Wo ich nämlich immer mit irgendwelchen Unternehmen halt mit deren virtuellen Assistenten interagieren muss. Also jedes Mal muss ich ja irgendwo anrufen und sagen, ja, ich bin ihr virtuelle Assistent, aber ich denke immer, nee, bist du ja nicht.

Du bist ja der virtuelle Assistent von, weiß ich nicht, irgendeiner Firma. Und ich hätte gern meinen und der kann ja dann gerne mit denen interagieren oder aber die überflüssig machen, wenn das denn geht. Also der sich genau um diese Dinge kümmert, wo ich denn mit anderen sprechen muss. oder interagieren muss, dass das eben tatsächlich mein Assistent übernimmt.

Und eben ich nicht nur, wie es jetzt halt auch ein bisschen fehlt mir das bei Chats GPT, ich muss ja immer alles noch selber machen im Prinzip. Es gibt mir zwar die Impulse, es gibt mir auch den Code zurück, aber alles zusammenzubringen muss ich selber tun oder eben bei jemandem anzurufen, weil ich jetzt irgendeine Störung habe, muss ich auch selber tun.

Und das hätte ich gern, dass das jemand für mich macht. Also

[00:31:08] **Frede (Moderation):** das hätte ich auch auf jeden Fall gerne. Das finde ich eine sehr gute Idee. Also wenn sich da draußen irgendjemand berufen fühlt. Ich glaube Menschen machen sowas schon. Ja, aber also wirklich, ich finde das eine super Idee und ähm. Zum Schluss des Podcasts tauche ich immer ganz gerne nochmal in ein paar kritischere Fragen ein, die in dem Bereich so kursieren und natürlich, wenn man über conversational AI oder generell AI diskutiert, dann kommen natürlich auch Bedenken hinsichtlich Datenschutz und Sicherheit auf.

Wie stehst du dazu, beziehungsweise

[00:31:46] **Manja Baudis:** wie gehst du damit um? Ich find's extrem wichtig. Ich glaube, ich bin da auch eher so ein ängstlicher Deutscher, Deutsch-Chat. Also ich bin da auch so ein bisschen Bedenkträger, nicht wirklich. Also dadurch, dass ich selbst diese Systeme nutze und auch meine Daten da schon immer verwendet habe für, ist die Angst nicht so groß, aber ich seh sie jetzt auch.

Ich habe die Bedenken auch, was meine Daten betrifft. Aber, ja, ich sehe ja auch, wie es gehandelt wird. Also es gibt ja auch im Web, wo wir schon sehr lange mit unseren Daten hantieren, seit, weiß ich nicht, 1995 Daten hinterlassen, oder ich zumindest vermutlich Daten hinterlassen habe. Das tue ich ja auch und vertraue dem System ja auch mehr oder weniger, dass sie mit meinen Daten relativ gut umgehen.

Und das müssen wir halt in diesem System hier auch tun. Und ich mein, wir halten uns an das, was eben bei uns da so Vorschrift ist. Und wir können auch nur mit dem mitgehen, was unsere Kunden an Infrastruktur haben dafür. Und die meisten in Deutschland haben natürlich sehr große Bestimmungen, Datenschutzbestimmungen, die wir halt nicht umgehen.

Sondern wir gehen dann natürlich mit. Es ist natürlich auf der anderen Seite. Klar, also dieses, wir sammeln so wenig wie möglich Daten und die werden nicht gespeichert und kommt uns nicht ganz entgegen, muss man schon sagen, weil genau das ist natürlich auch ein Problem, wir wollen ja Leute wieder erkennen und wir wollen den Kontext wieder haben, es ist ein riesen Ding, was Anwenderinnen ja auch haben wollen, also es ist ja auf beiden Seiten, eigentlich wollen es beide haben, aber dieses Problem, dass wir die Daten dafür brauchen, Es steht auch für beide im Raum, aber deswegen ist es so ein bisschen, ja, wenn wir sie ordnungsgemäß speichern und auch nur dafür nutzen, wenn dieses Vertrauen da ist, dann funktioniert es, glaube ich, auch gut.

Und wir brauchen es definitiv. Wir brauchen es zum Bauen dieser Modelle. Wir brauchen ja schon Daten, um diese großen Modelle zu erstellen. Und wir brauchen Daten, um dich wiederzuerkennen und dir die kontextsensiven Sachen auch ausgeben zu können. Von daher würde ich da gerne sehen, dass das Vertrauen größer ist.

Klar haben das auch viele Unternehmen gebraucht, muss man sagen. Das kommt ja auch. kommt ja immer wieder mal auf. Das ist so. Aber dann kommen wir auch nicht weiter. Es ist schon immer zweischneidig.

[00:33:50] **Frede (Moderation):** Ja, absolut. Absolut nachvollziehbar, dass ihr die Daten braucht. Und ja, eigentlich eine super schöne Message, einfach verantwortungsbewusst mit den Daten umzugehen.

Und dann steigt wahrscheinlich, hoffentlich, das Vertrauen auch wieder. Was sind denn so die größten Missverständnisse über die Nutzung von Generative AI im UX-Design, die man so in der Branche beobachtet oder die du vielleicht auch schon selber beobachtet hast?

[00:34:17] **Manja Baudis:** Gibt schon einige. Also das, was uns lange begleitet, ist halt so, naja, also dann hast du jetzt den Red Button und drückst drauf und dann ist das da dein System und es funktioniert perfekt.

Das ist glaube ich so das, also in kurzer Zeit günstig, Das ist, glaube ich, so ein bisschen das größte Problem. Und das passiert natürlich nicht. Also, wir haben immer noch die gleichen Herausforderungen. Wir müssen immer noch Dinge zusammenbringen. Wir müssen immer noch den Benutzer verstehen. Und wir müssen immer noch die Prozesse verstehen.

Also, selbst wenn wir das alles als Parameter auch in einem Gen AI mitgeben, kommt halt nicht sofort die perfekte Lösung hinten raus. Also, das ist, glaube ich, mal so das größte Missverständnis, dass es uns das alles abnimmt. Wie gesagt, ich hätte halt eben gerne den Assistenten, der mir das alles abnimmt.

Aber so... Ist es ja nicht. Und was sonst gerade in unserer Branche viel vorkommt, ist halt, jetzt wird der Benutzer immer verstanden. Perfekt. Also es gibt eine Eingabe und das wird immer verstanden und es wird immer irgendwas dafür gefunden werden. Das ist auch nicht so. Also selbst wenn die Technik, klar, jetzt sehr, sehr, sehr viel besser ist und wir natürlich sehr viel besser verstanden werden, ist es aber auch nicht hundertprozentig.

Also selbst da gibt es immer noch Schwierigkeiten. Wir müssen immer noch Fehler abfangen. Ja und wir müssen auch im Nachgang, also das was wir auch glaube ich unterschätzen, die Anpassung und die ständige Verbesserung sind ja nicht einfacher geworden. Also wir haben jetzt sehr viel Daten, die dann auch zurückkommen, die wir aber wieder scannen müssen, labeln müssen, gucken müssen, ob das funktioniert hat, wie wir uns das vorgestellt haben.

Das ist ja eine Riesenmasse, für die wir auch noch nichts gefunden haben, wie wir das automatisieren können. Das machen wir ja auch noch sehr händisch. Das ist auch so die Idee gewesen. Braucht man ja eigentlich nicht mehr, aber doch, wir merken ja, wir brauchen sehr viel mehr tatsächlich noch, um da Kontrolle drüber zu gewinnen.

Müssen wir uns noch sehr viel mehr Daten angucken und gucken, ob es richtig funktioniert hat. Das ist, glaube ich, auch so ein Missverständnis, dass das alles so ein bisschen löst sich das in Wohlgefallen auf und wird alles sehr viel einfacher. Aber ich glaube, der Arbeitsaufwand hat sich überhaupt nicht verringert.

Also er hat sich auf eine andere Stelle wieder verschoben. Ich glaube, so ein bisschen von dem, dass wir eben initial den Dialog kontrollieren mussten und da alles abgefangen haben, zu dem wir gucken jetzt am Ende und müssen sehr viel mehr auf die. auf die Incoming-Daten dann gucken, was bei denen passiert ist.

[00:36:25] **Frede (Moderation):** Ja, vielen Dank, dass du mit diesen Missverständnissen aufgeräumt hast. Ich würde jetzt gerne nochmal über das Thema, na sagen wir mal Abhängigkeit sprechen wollen. Wenn ich jetzt übermäßig Generative AI nutze, wo siehst du da ein mögliches Risiko? Oder siehst du dort ein mögliches Risiko?

[00:36:46] **Manja Baudis:** Das merken wir jetzt schon, dass, ja, diese Modelle können ja auch mal ausfallen, zum Beispiel, also, wenn wir die jetzt anbinden und du machst das nur darüber und fängst halt jetzt an so einem Bot das gar nicht anders ab, so ein Modell ist auch mal weg, oder tut gerade mal nicht, das muss man bedenken, das haben die meisten ja auch nicht auf dem Schirm, das ist halt immer da, ist mein Bot auch immer da, nö.

Ist ja so nicht. Also das muss man auch so ein bisschen auf dem Schirm haben, dass da ja auch Ausfälle sind. Ja, und übermäßig abhängig klingt schon immer gefährlich, finde ich. Das sollte man halt nicht sein. Also Abhängigkeiten sind halt immer schwierig. Aber das ist halt so ein bisschen das größte Problem.

Es fällt halt aus, du brauchst eigentlich eine Alternative. Es ist teuer auf Dauer. Man muss sich schon auch überlegen, ähm, ja, hat man, hat man das Geld, das immer so zu... Nutzen und tut es überhaupt Not? Also muss ich denn für meine Anwendungszwecke jetzt auf eine AI zurückgreifen und diese ganze Maschinerie benutzen mit allem drum und dran, was halt dahinter steht, was wir auch alles schon besprochen hat, mit all den Datenschutz- und Bias-Problemen?

Muss ich das alles haben oder kann ich nicht mal zurückfahren und mach halt hier jetzt halt einen regelbasierten Bot? Also das würde ich auch immer wieder hinterfragen, ob es denn wirklich Not tut, da das jetzt zu benutzen. Und wenn du dich halt, ja das kann man natürlich alles dem, dem LLM überlassen.

Vielleicht geht das ja auch irgendwann, dass man sagt, ja ich will im Monat, ich weiß ja nicht, 50 Euro maximal dafür ausgeben. Stell mal das Ding hin und beantworte mal am besten, wie du dir das vorstellst. Wenn das funktioniert und man dasselbe alles nicht mehr kontrollieren muss. Fein, aber dann bleibt halt immer noch die Ausfallquote, das bleibt ja immer noch bestehen.

Und auch das, was wir gerade schon hatten, eben diese Datenschutzprobleme, Bias-Probleme, die hast du ja immer drin, wenn du dich halt von diesem AI abhängig machst. Also du kannst ja dann auch nicht raus, wenn du jetzt selbst feststellst, dass es eben Bias gibt, den du nicht haben willst, was machst du dann?

Also es ist ja, in den meisten Fällen sind es nicht deine eigenen Modelle, du kannst versuchen mit dem Prompting dagegen zu steuern und versuchen was zu ändern, was du ändern willst, aber du kannst grundlegend erstmal nicht nichts an den Daten ändern und wenn du davon abhängig bist, erst recht nicht, dann musst du es halt weiter nutzen oder schaltest es halt ab.

[00:38:58] **Frede (Moderation):** Ja, ja auf jeden Fall. Vielen Dank dafür, dass du das mit uns geteilt hast und jetzt würde ich gerne noch auf eine andere Kritik zu sprechen kommen, die ja relativ populär ist und zwar, dass AI-Systeme ja voreingenommen sein könnten. Was denkst du darüber?

[00:39:16] **Manja Baudis:** Ich glaube, das haben wir, das haben wir schon sehr oft angesprochen.

Das ist halt ein Riesenthema und ja, es, es ist halt ein riesiges Thema. Es ist vermutlich so, also wir sehen ja immer wieder Beispiele im Social Media, die dir das so vor Augen führen, was du jetzt im normalen Gebrauch von irgendwelchen Anwendungen, die wir bauen, wahrscheinlich nicht merkst, aber die dann halt dir in der breiten Masse halt irgendwann mal vor Augen geführt werden.

Das ist auch ein bisschen das perfide dran, wir merken es ja nicht in den kleinen Teilen, wenn du eine Anwendung startest, merkst du ja nicht, dass da jetzt ein Bias drin ist oder nicht. Und das sieht man dann erst, wenn man es eben vergleicht. Wenn du dir, das ist relativ populär, wenn man ja eben sich Bilder generieren lässt.

Weiß ich nicht, von Businessfrauen oder so. Das haben wir natürlich auch probiert. Wir haben unsere ganzen Agenturbilder einmal noch mal von den Mitarbeitenden generieren lassen. Mach mal bitte schöne Bilder von uns für die Website. Ohne groß mitzugeben, was der Kontext ist. Und das war halt dann so, also es waren sehr große Unterschiede zwischen dem, was du die Männer generieren würde und von dem, was für die Frauen generiert wird.

Also Frauen halten halt immer dieses Lächeln, so einen leicht geöffneten Mund, ein bisschen zurückhalten, unterwürfigen Blick und Männer eher so dieses, ja, Macher, stark, so. Und das, da in diesen Fällen wird es halt sehr offensichtlich, in den meisten anderen Fällen wird es halt nicht offensichtlich und ich finde in viel diesen Sprachanwendungen wird es sehr für uns erst mal nicht offensichtlich, wo dieser Bias ist.

Das ist, glaube ich, ein Problem. Wir wissen alle darum, aber wir wissen nicht genau, wann er auftritt, wann es, wann es zum Problem wird. Und ich glaube, wir wissen auch in den oder in vielen Fällen bei komplexen Systemen auch gar nicht, wie man dem schnell begegnen kann, weil es eben so tief in den Daten versteckt ist, sozusagen.

Man muss halt neu sammeln. Man muss halt von allen Seiten viel mehr. inklusive Daten auch zulassen. Und man muss auch in diesen Teams, die diese Algorithmen zusammenbasteln, am Ende sehr viel mehr Diversität zulassen, um dem halt entgegenzuwirken, weil wir in diesen ganzen, dieser ganzen Kette der Verarbeitung auch nicht mehr unbedingt wirklich nachvollziehen können, wo kommt der Bias rein.

So, der kann halt an verschiedenen Stellen kommen und das ist glaube ich, so ein bisschen das größte Problem. Awareness ist, glaube ich, mittlerweile relativ gut da, würde ich sagen. Also, ich finde, Aufmerksamkeit ist drauf. Es wird überall diskutiert. Aber dem entgegenzusteuern, das können wir ja, also, wir müssen ja in unserer Welt dagegen steuern, sozusagen, um dem auch für die KI entgegenzusteuern.

Und da braucht es ein bisschen mehr als halt nur darüber zu sprechen. Ich glaube, das dauert noch ein bisschen, bis wir das hinkriegen.

[00:41:39] **Frede (Moderation):** Ja, das fürchte ich auch, aber trotzdem vielen Dank für den Gedankenanstoß. Zum Abschluss würde ich dich jetzt super gerne fragen, wenn sich ein UX-Professional auf Conversational AI spezialisieren möchte, welche Ratschläge hättest du denn für ihn oder sie?

[00:41:56] **Manja Baudis:** Machen. Gerne einfach machen. Ja, es gibt mittlerweile so viele Prototyping-Tools oder auch, ja, Plattformen, die man nutzen kann, relativ oft. Niederschwellig da ranzukommen, also manche bieten ja auch erstmal um es auszutesten, kannst du das ja für umsonst ausprobieren und kannst relativ simpel, relativ schnell ein VoiceBot oder ein Chatbot zusammen klicken, ohne dass man da irgendwie groß Erfahrung haben muss und ich glaube, das ist das, das Beste, um einzusteigen.

Also versuch selber einen Dialog nachzubauen in so einem System und du wirst halt sofort merken, was die Knackpunkte sind. Was alles, was man alles bedenken muss. Und wenn du das immer wieder diese Iteration, die wir ja auch immer tun, ich baue mal die ersten drei, Steps zusammen und merke, oh, klingt blöd, muss ich noch was ändern.

Wenn du das drei, vier Mal iteriert hast, dann weißt du, glaube ich, schon, worum es im conversational design geht. Ich glaube, das merkt man ziemlich schnell, weil ja doch dieser Umgang mit Sprache und Sprechen und Dialoge führen, ist uns ja allen schon gegeben. Und dann muss man es halt einfach nur nochmal ausprobieren, was ist da anders, wenn man es mit der Maschine tut.

Es kann nicht schaden, die Grundlagen zu haben, es ist aber nicht das wichtigste, Grundlagen im, weiß ich nicht, aus der Linguistik mitzubringen oder aus der Computerlinguistik. Es schadet nicht, man sollte sich auf jeden Fall, um, dann auch an, Schauen, wenn man das wirklich betreiben will. Also man sollte schon wissen, was die potenziellen Fehlerquellen oder Knackpunkte sind.

Aber, also an erster Stelle würde ich immer sagen, ausprobieren. Und dann kann man gucken, ob das was für einen ist, ob man da auch Lust drauf hat, diese Iterationen, die sehr kleinteilig sein können, immer wieder durchzuführen. Ja. Und sonst, ja, also Netzwerken, sowas wie ihr da auch bietet, ist, glaube ich, immer gut für den Einstieg.

Sucht euch gleichgesinnt, seht es auch tun und redet drüber, was ihr wie macht. Das hatten wir auch lange nicht, wir waren ja wirklich früher ein sehr, sehr kleiner Haufen, jetzt sind wir ein paar mehr. Von daher hat man jetzt auch mehr Austausch und das merke ich auch, dass das sehr viel, das macht sehr viel mehr Spaß, da nicht nur als Nerd in so einer Ecke sozusagen zu hocken, sondern da gerne mal auch mit anderen drüber zu sprechen, sehr wichtig.

Ja, ich glaube, das wären so die Basics, die ich mitgeben würde.

[00:44:04] **Frede (Moderation):** Ja, vielen Dank, Manja, für dieses sehr, sehr sympathische und gehaltvolle, bereichernde Interview. Gibt es vielleicht noch etwas, was du mit unserer Community gerne teilen wollen würdest?

[00:44:15] **Manja Baudis:** Puh, ich bin sehr dankbar, dass es eure Community gibt, glaube ich.

Das würde ich euch gerne mal sagen. Und vielen Dank für eure Arbeit. Das ist auch immer alles sehr nett und sehr menschlich und ja, sehr umgeglich. Das mag ich sehr gerne.

[00:44:28] **Frede (Moderation):** Ja, vielen Dank für dieses tolle Feedback. Genau, also wie gesagt, nochmal ein großes Dankeschön an dich, dass du heute bei uns warst. Ich konnte mir den ein oder anderen Gedankenanstoß mitnehmen und ich hoffe euch da draußen geht es ganz genau so.

Damit verabschiede ich mich jetzt schon von dir, Manja. Wie gesagt, es war mir eine Ehre, dass du bei uns warst und ich wünsche dir jetzt noch einen wunderschönen

[00:44:50] **Manja Baudis:** Tag. Vielen Dank, Deo. Vielen Dank, dass ich da sein durfte.