Direkt zum Inhalt springen
Radical Personas
← Magazin Design Thinking

Design Thinking ist nicht tot — es war nie das, was wir glaubten

Zwischen IDEO-Workshops und Harvard-Fallstudien klaffen Welten. Was empirisch vom Design-Thinking-Versprechen übrig bleibt — und was verzichtbar war.

Sophie Krüger · Creative Director 8 Min. Lesezeit

Als die Harvard Business Review Tim Brown 2008 eine Doppelseite gab, war Design Thinking noch ein Begriff aus dem Dunstkreis von IDEO und der Stanford d.school. Zehn Jahre später war es ein globales Phänomen — mit Beratungshäusern, Workshop-Zertifikaten und Post-it-Exzessen in jedem zweiten Großraumbüro zwischen Hamburg und Singapur. Weitere fünf Jahre später wurde es öffentlich für tot erklärt.

Beide Erzählungen — der messianische Aufstieg und das verkündete Ende — verfehlen, was Design Thinking als Praxis eigentlich ist. Dieser Artikel versucht eine nüchterne Bilanz: Was hat empirische Evidenz, was nicht, und wo liegt der bleibende Wert der Methode.

Woher die Methode kommt

Die Grundidee lässt sich auf zwei Linien zurückführen. Erstens: Herbert Simons Sciences of the Artificial (1969), das den Designer als jemanden beschreibt, der „bestehende Situationen in bevorzugte überführt”. Zweitens: die Praxis des Industrial Design in den 1980er-Jahren, vor allem bei IDEO — die als eine der ersten Organisationen Design als Problemlösungs-Disziplin und nicht als Ästhetik-Disziplin formulierte.

Tim Browns HBR-Artikel von 2008 verdichtete diese Linien zu einem dreistufigen Zyklus: Inspiration → Ideation → Implementation. Die Stanford d.school formalisierte später fünf Phasen (Empathize, Define, Ideate, Prototype, Test), die seither in jedem Bootcamp auftauchen. Beide Frameworks sind pragmatisch gedacht, nicht wissenschaftlich abgeleitet.

Wo die Kritik berechtigt ist

Roger Martin, einer der wichtigsten Vertreter der Methode, hat 2019 im MIT Sloan Management Review eine der schärfsten Kritiken formuliert: Design Thinking werde in Unternehmen zur Performance — ein Ritual, das Innovation vortäuscht, ohne sie hervorzubringen. Die „Empathy Maps” werden ausgefüllt, ohne je mit echten Kund:innen gesprochen zu haben. „How might we”-Fragen entstehen aus dem Bauchgefühl des Workshop-Leiters. Prototypen sind Präsentations-Folien, keine testbaren Artefakte.

Jon Kolko hat 2023 in einem viel zitierten Fast Company-Artikel die Debatte zugespitzt: Design Thinking sei zum Marketing-Instrument verwässert, während die Designer:innen, die die Methode ernst nähmen, sie kaum noch so nannten.

Beide Kritiken treffen einen realen Punkt. Sie treffen aber den Pop-Design-Thinking-Workshop, nicht die Methode in ihrer ursprünglichen Form.

Was die Empirie zeigt

Jeanne Liedtka hat in einer der substanziellsten Studien dazu (HBR 2018) über sieben Jahre fünfzig Design-Thinking-Projekte in Organisationen unterschiedlicher Größe dokumentiert. Ihr Befund ist differenziert: Design Thinking wirkt, aber nicht durch die Werkzeuge selbst. Es wirkt, weil es bestimmte soziale Dynamiken erzwingt:

  1. Es zwingt Teams, vor der Lösung mit Nutzer:innen zu sprechen.
  2. Es macht implizite Annahmen explizit und damit diskutierbar.
  3. Es verschiebt Diskussionen von „Wer hat recht?” zu „Was lernen wir vom Prototyp?”.

Diese drei Effekte — Nutzerkontakt, Annahme-Explizität, Prototyp-Fokus — sind empirisch der Kern dessen, was Design Thinking leistet. Alles andere — Post-its, Empathie-Canvases, die Five Whys — sind Werkzeuge, die diese Effekte ermöglichen, aber nicht garantieren.

Design Thinking ist keine Methode. Es ist ein sozialer Mechanismus, der Teams zu besserem Verhalten zwingt, wenn er richtig angewandt wird.

Die McKinsey Design Index-Studie (2018) liefert zusätzlich ökonomische Daten: Unternehmen im obersten Quartil der Design-Exzellenz erzielten über fünf Jahre 32 % höheres Umsatzwachstum und 56 % höhere Aktionärsrendite als die Branchen-Durchschnitte. Allerdings war „Design-Exzellenz” bei McKinsey nicht gleichbedeutend mit „Design-Thinking-Workshops”; vielmehr operationalisiert über konsequente Nutzerforschung, iteratives Prototyping und messbare Kundenzufriedenheits-Metriken.

Was wirklich ROI bringt — und was nicht

Aus der verfügbaren Evidenz lassen sich fünf Praktiken als hochwirksam identifizieren:

Wirksam:

  • Strukturierte Nutzerinterviews am Anfang eines Projekts (nicht: Empathy Maps ohne Kontakt)
  • Rapid Prototyping in niedriger Treue, testbar innerhalb einer Woche
  • Hypothesen-getriebenes Testing (mit dokumentierter Vor-Annahme)
  • Cross-funktionale Teams in kontinuierlicher, nicht punktueller Zusammenarbeit
  • Divergenz vor Konvergenz in Ideationsrunden, sauber getrennt

Weniger wirksam oder Performance:

  • Empathy-Maps ohne echte Interviews
  • Persona-Workshops ohne Validierung
  • How-might-we-Formulierungen als Selbstzweck
  • Design-Sprint-Rituale (fünf Tage, keine Follow-up-Iteration)
  • Post-it-Wände als Deliverable-Ersatz

Die zweite Gruppe ist nicht wertlos — sie erzeugt aber nur Wert, wenn sie mit den wirksamen Praktiken kombiniert wird. Isoliert wird sie zu dem, was Roger Martin design theatre nennt.

Wo Empathie-Werkzeuge helfen — und wo nicht

Empathy Maps, Customer Journey Maps und Personas stehen im Zentrum des Pop-Design-Thinking. Sie sind gleichzeitig die am stärksten missbrauchten Werkzeuge der Methode.

Hilfreich sind sie in einer spezifischen Konfiguration: nach echten Nutzerinterviews, mit psychologisch differenzierter Grundlage, im Dialog mit dem Produkt-Team. Eine Empathy Map, die aus drei zitierfähigen Nutzer-Aussagen entsteht, ist ein Kondensator. Eine Empathy Map, die aus Annahmen entsteht, ist ein Spiegel — sie reflektiert, was das Team ohnehin schon dachte.

Dasselbe Prinzip gilt für Personas. Wir haben in unserem Artikel „Was Personas wirklich bringen” argumentiert, dass sie nur wirken, wenn sie zitiert werden. Die erweiterte Version dieser These lautet: Jedes Design-Thinking-Artefakt wirkt nur, wenn es zitiert wird. Ein Canvas, das niemand öffnet, erzeugt keine Einsichten.

Wohin die Praxis jetzt geht

Drei Entwicklungen zeichnen sich ab, die Design Thinking nicht ersetzen, aber ergänzen:

Erstens: Mehr Empirie am Anfang, weniger Ideation am Ende. Teams verschieben ihre Ressourcen in die Problem-Definitions-Phase. Die Annahme dahinter: Wer das Problem genau versteht, braucht weniger Workshop-Kreativität am Ende.

Zweitens: Kontinuierliche Prototyp-Tests statt Sprints. Statt fünftägiger Design-Sprints arbeiten Teams mit rollierenden Prototyp-Zyklen von zwei bis drei Wochen. Die Sprint-Logik wird als zu punktuell erlebt.

Drittens: KI-augmentierte Forschungs-Phasen. Synthetische Personas werden zunehmend in frühen Phasen eingesetzt — nicht als Ersatz für echte Nutzerforschung, sondern als erstes Sieb. Ein Team kann damit zehn Hypothesen in einer Stunde stress-testen, bevor es in die teuren, aufwendigen Interviews mit echten Nutzer:innen geht. Diese Entwicklung ist neu genug, dass die empirische Evidenz gerade erst entsteht (vgl. Stanford HAI, Park et al. 2024).

Was bleibt

Design Thinking ist nicht tot. Was tot ist, ist das Versprechen, dass fünf Tage Post-it-Kleben ein Geschäftsmodell retten. Was bleibt, ist ein Satz sozialer Mechanismen, die — konsequent angewandt — die Wahrscheinlichkeit nutzerzentrierter Entscheidungen erhöhen.

Die ehrlichste Zusammenfassung bietet Jeanne Liedtka in ihrem HBR-Artikel 2018 sinngemäß: Design Thinking wirke, weil es als soziale Technologie funktioniere — institutionalisiert werde nicht der Workflow, sondern die Erlaubnis, anders zu denken.

Diese Permission — die soziale Erlaubnis, Annahmen in Frage zu stellen, bevor man Code schreibt — ist das, was die Methode in ihrer besten Form liefert. Wer danach sucht, findet sie auch ohne Zertifikat und ohne Workshop-Anbieter. Wer sie ritualisiert, findet sie überhaupt nicht.

Wer in der Empathie-Phase schneller werden möchte, ohne die Qualität zu verlieren, kann unsere Methode nutzen: Acht psychologische Ebenen pro Persona, orchestriert in einer Logik, die echte Nutzer-Komplexität annähert. Keine Workshops, keine Post-its — aber auch kein Ersatz für das Gespräch mit echten Menschen.

Quellen

Woher die Zahlen und Argumente stammen

Jede im Artikel genannte Studie, jedes zitierte Buch und jede empirische Zahl ist hier belegt. Wenn eine Quelle online frei verfügbar ist, führt der Link direkt zum Paper oder zur Primärquelle.

  1. [01]
    Tim Brown (Harvard Business Review) · 2008
  2. [02]
    Martin, R. (MIT Sloan Management Review) · 2019
  3. [03]
    Liedtka, J. (Harvard Business Review) · 2018
  4. [04]
    Jon Kolko (Fast Company, nachgewiesene Debatte) · 2023
  5. [05]
    Hasso Plattner Institute of Design · 2018
  6. [06]
    McKinsey Design Index · 2018
Radical Personas

Die Methode hinter diesem Artikel — in der Praxis.

Radical Personas ermöglicht genau das: strukturierte Persona-Evaluierung mit acht psychologischen Ebenen, in 20 Minuten statt 42 Tagen.

Ab €29/Monat · Free-Plan ohne Kreditkarte · Jederzeit kündbar Alle Pläne ansehen →