Am 14.11.25 fand das AI Transformation Camp in München statt. Ich durfte dort eine Session einbringen und gestalten: Datenanalyse mit LLMs (Large Language Models, also z.B. ChatGPT oder Claude): Was kann das?
Mit dabei hatte ich eine konkrete Fallstudie und einen Datensatz zum direkten Ausprobieren. Meine Aufgabe an die Teilnehmer: Ihr habt 20 Minuten Zeit, analysiert die Daten und beantwortet mir die Frage: Stimmt Ihr einer vorgegebenen Hypothese zu oder nicht? Das Ergebnis war erstaunlich: Von 20 Teilnehmer antworteten nach 20 Minuten Bearbeitungszeit 5 mit JA, 6 mit NEIN und 8 mit “WEISS NICHT”.
Was wir alle gemeinsam in der Session gelernt haben:
𝗪𝗮𝘀 𝗟𝗟𝗠𝘀 (𝗖𝗵a𝘁𝗚𝗣𝗧, 𝗖𝗹𝗮𝘂𝗱𝗲 𝗲𝘁𝗰.) 𝗿𝗶𝗰𝗵𝘁𝗶𝗴 𝗴𝘂𝘁 𝗸𝗼𝗲𝗻𝗻𝗲𝗻
✅Tempo: In wenigen Minuten entstehen erste Analysen und Visualisierungen.
✅Muster erkennen: Auffälligkeiten und Cluster springen schneller ins Auge.
✅Sparringspartner: Nachfragen, in die Tiefe gehen, Alternativen abklopfen.
𝗪𝗼 𝗲𝘀 𝗸𝗻𝗶𝗿𝘀𝗰𝗵𝘁
❌Datenqualität: Wenn die Grundlage wackelt, hilft das beste Modell wenig. Shit in, shit out.
❌Fehlende Reproduzierbarkeit: Gleicher Prompt liefert nicht gleiche Ergebnisse.
❌Sinnhaftigkeit der Analyse: Das LLM macht was Du ihm sagst. Aber macht das auch Sinn? In dieser Fallstudie z.B. die Unterscheidung von Output vs. Outcome.
❌Zu komplexe, überladene, unstrukturierte Prompts: Führen zu Müll in der Ausgabe des LLMs.
𝗗𝗿𝗲𝗶 𝗽𝗿𝗮𝗸𝘁𝗶𝘀𝗰𝗵𝗲 𝗧𝗶𝗽𝗽𝘀 𝗮𝘂𝘀 𝗱𝗲𝗿 𝗦𝗲𝘀𝘀𝗶𝗼𝗻
💡Das LLM die Daten einlesen und beschreiben lassen, bevor man in die Analyse geht. Dann weißt Du was das LLM verstanden hat (und was auch nicht)
💡Schrittweise arbeiten. Kleine Prompts, Zwischenergebnisse speichern. Das macht die Analyse nachvollziehbar.
💡Gegenprüfen. Hypothesen mit einfachen Statistiken oder Zeitreihen validieren. Auf keinen Fall dem LLM blind vertrauen!
𝗛𝗲𝗿𝘇𝗹𝗶𝗰𝗵𝗲𝗻 𝗗𝗮𝗻𝗸 an die Organisatoren Martin Ströbele und Sacha Storz für dieses Klasse Barcamp! Und an alle, die mitgedacht, getestet und kritisch gefragt haben. Michael Cramer Alisa Stroebele Udo Wiegärtner und noch mehr als 20 Teilnehmer…
𝗚𝗲𝗻𝗮𝘂 𝗱𝗮𝘃𝗼𝗻 𝗹𝗲𝗯𝘁 𝗴𝘂𝘁𝗲𝘀 𝗟𝗲𝗿𝗻𝗲𝗻!






