Vortrag | 2. April 2026
UX Webinar "Synthetic Users im Realitätscheck" mit Jens Jacobsen

In diesem UX-Webinar beleuchtet Jens Jacobsen das Thema synthetische User und ordnet ein, was KI im User Research heute tatsächlich leisten kann – und wo ihre Grenzen liegen.



Und darum geht es

Was leisten synthetische User im UX-Kontext heute wirklich? Wo können KI-Tools Research sinnvoll unterstützen – und wo stoßen sie an methodische Grenzen? In diesem Webinar ordnet Jens Jacobsen aktuelle Entwicklungen rund um synthetische Personas, simulierte Interviews und KI-gestützte Auswertung ein.

Das erwartet dich

  • Einordnung des aktuellen Hypes um synthetische User und KI im UX Research
  • Überblick über relevante Tool-Kategorien, etwa synthetische Interviews, synthetische Panels, Verhaltenssimulationen und Research-Repositories
  • Konkrete Beispiele für den Einsatz von ChatGPT, Claude und NotebookLM bei der Arbeit mit Interviewtranskripten
  • Einschätzung, wo KI im UX-Alltag heute bereits sinnvoll unterstützt, etwa bei Leitfäden, Strukturierung und Auswertung
  • Kritische Auseinandersetzung mit synthetischen Personas und simulierten Nutzermeinungen
  • Verständnis dafür, warum plausible KI-Ergebnisse nicht automatisch valide Research-Ergebnisse sind
  • Hinweise zum methodisch sinnvollen Umgang mit KI-generierten Erkenntnissen
  • Diskussion typischer Risiken wie Scheinsicherheit, Confirmation Bias und „Research Theater“
  • Praxisnahe Empfehlungen, wann echte Nutzertests unverzichtbar bleiben – besonders bei sensiblen oder speziellen Zielgruppen

Wichtige Take-Aways für UX-Professionals

  • KI ist ein starkes Assistenz-Tool – aber kein Ersatz für echte Nutzerforschung: Besonders bei der Auswertung, Strukturierung und Vorbereitung von Research kann KI enorm unterstützen. Für echte Erkenntnisse bleibt der Kontakt mit realen Nutzenden unverzichtbar.
  • Synthetische User liefern keine echten Nutzerperspektiven: KI-generierte Personas und Antworten basieren auf Mustern, nicht auf realem Verhalten, echten Bedürfnissen oder Emotionen.
  • Plausibel bedeutet nicht valide, denn Ergebnisse wirken oft überzeugend und professionell, können aber inhaltlich falsch oder unvollständig sein. Kritische Prüfung bleibt Pflicht.
  • KI-Ergebnisse immer als Hypothesen behandeln: Statt Entscheidungen direkt darauf zu stützen, sollten sie als Ausgangspunkt für weitere Validierung genutzt werden.
  • Gefahr der Scheinsicherheit und Confirmation Bias: Vorab generierte „Erkenntnisse“ können dazu führen, dass man in echten Tests nur noch bestätigt, was man ohnehin erwartet.
  • Ohne solide Datenbasis entstehen auch mit KI nur oberflächliche oder stereotype Ergebnisse.
  • Besonders vorsichtig bei sensiblen Zielgruppen: Bei spezifischen Nutzergruppen (z. B. ältere Menschen) stoßen synthetische Ansätze schnell an ihre Grenzen.
  • Der größte Mehrwert liegt in der Effizienzsteigerung – nicht im Erkenntnisgewinn: KI beschleunigt Prozesse, ersetzt aber nicht die Qualität echter Beobachtungen.