Ein eintägiger KI-Workshop in Bangkok soll Katastrophenschutz in Süd und Südostasien von neugieriger Pilotlust zu belastbaren Routinen bringen, mit konkreten Vorlagen für Lageberichte, Bedarfsermittlung und Krisenkommunikation. Die Logik dahinter ist pragmatisch: Wenn Daten bruchstückhaft sind und Entscheidungen Minuten kosten, gewinnt nicht das beste Modell, sondern der sauberste Ablauf, der Menschen, Daten und Verantwortlichkeit verbindet.
Übersicht:
Was in Bangkok konkret passierte
Am 29. März 2026 brachten das Unternehmen OpenAI, die Gates Foundation, das Asian Disaster Preparedness Center (ADPC) und DataKind in Bangkok 50 Führungskräfte aus dem Katastrophenmanagement zu einem ersten „AI Jam“ zusammen. Ziel war, KI so zu verankern, dass sie in Einsatzlagen Zeit spart, statt nur als Demo zu glänzen.
Teilnehmende kamen aus 13 Ländern, darunter Bangladesch, Indien, Indonesien, Laos, Malaysia, Myanmar, Nepal, Pakistan, die Philippinen, Sri Lanka, Thailand, Timor Leste und Vietnam. Vertreten waren Behörden, multilaterale Organisationen und Nonprofits, also Teams, die im Einsatz Informationen bündeln, Hilfsbedarfe priorisieren und Kommunikation unter Zeitdruck steuern.
Organisatorisch setzte der Workshop auf zwei Bausteine: Mentoring durch OpenAI, plus die Übersetzung von Einsatzproblemen in wiederholbare Bausteine wie „Custom GPTs“ und standardisierte Arbeitsabläufe. Der Ansatz passt zu OpenAIs Programm OpenAI for Countries, das Partnerschaften für lokalisierte und institutionell nutzbare KI beschreibt.
Partner-Hintergrund: Gates Foundation, ADPC und DataKind decken zusammen Finanzierung, regionale Expertise und operative Datenarbeit ab. Laut den beteiligten Organisationen soll dadurch der Sprung von „KI kann viel“ zu „KI macht heute etwas Verlässliches“ kleiner werden.
Warum der Bedarf in Asien stark wächst
Viele Einsatzstäbe arbeiten mit knapper Ausstattung, lückenhaften Datensätzen und Prozessen, die noch stark auf Handarbeit beruhen. In schnell eskalierenden Lagen kostet das Koordination, weil Informationen verteilt sind, Formate uneinheitlich sind und Entscheidungen auf unsicherer Datenbasis getroffen werden müssen.
Parallel steigen Häufigkeit und Wucht von Extremereignissen, Asien und der Pazifik gelten als besonders stark betroffen. UNEP ordnet die Region als weltweit am stärksten katastrophengefährdet ein und berichtet für 2005 bis 2014 von 1,4 Milliarden betroffenen Menschen in der Region, das entspricht fast 80 Prozent der weltweit Betroffenen. Quelle: UNEP.
Die finanzielle Dimension ist ebenso konkret: Die Weltbank beziffert die Schäden in ASEAN-Staaten zwischen 2015 und 2020 auf mehr als 11 Milliarden US-Dollar durch Naturkatastrophen. Quelle: World Bank.
| Signal aus der Praxis | Zahl | Warum es für KI-Einsatz zählt |
|---|---|---|
| Betroffene Menschen in Asien-Pazifik (historische Einordnung) | fast 80% der weltweit Betroffenen (2005 bis 2014) | Hohe Grundlast bedeutet, dass Effizienzgewinne systemisch wirken, nicht nur punktuell. |
| Schadenssumme in ASEAN-Staaten | > 11 Mrd. USD (2015 bis 2020) | Investitionen in schnellere Entscheidungsketten werden wirtschaftlich plausibel. |
| ChatGPT-Nachfrage in Krisen laut OpenAI internen Daten | 17x (Sri Lanka, Zyklon Ditwah), 3,2x (Thailand, Zyklon Senyar, Nov 2025) | Bevölkerung nutzt KI bereits als Informationskanal, Einsatzteams können daran andocken, müssen aber Qualität und Verantwortung absichern. |
Der dritte Punkt ist strategisch: Wenn Bürgerinnen und Bürger in Krisen bereits KI für Orientierung nutzen, verschiebt sich die Erwartung an Behördenkommunikation, schneller, verständlicher, mehrsprachig. Genau dort kann KI helfen, aber nur, wenn Quellenlage, Freigabeprozesse und Haftungsfragen mitgedacht sind.
Wie aus KI Ideen einsatzfähige Werkzeuge werden
Im Jam ging es nicht um „KI erfindet neue Katastrophenhilfe“, sondern um robuste Standardarbeit: Text zusammenziehen, Meldungen sortieren, Checklisten ausfüllen, Übersetzungen beschleunigen. Teilnehmende arbeiteten dabei an wiederverwendbaren Mustern, die in verschiedenen Ereignistypen funktionieren sollen, von Lagebild bis Öffentlichkeitsarbeit.
Konkretes Praxisbeispiel aus einem Einsatzstab
Beispiel: Nach einem Taifun laufen Meldungen aus Gemeinde-Hotlines, Messwerten, kurzen Einsatznotizen und Social-Media-Screenshots ein. Ein Custom GPT kann daraus einen ersten Entwurf für einen SitRep erstellen, offene Datenlücken markieren und parallel eine bürgernahe Kurzmeldung in mehreren Sprachen vorschlagen, bevor ein Mensch freigibt.
Klare Entscheidungsregel für den KI-Einsatz
Als Faustregel funktioniert „3 mal Ja“: wiederholbar, zeitkritisch, prüfbar. Wenn eine Aufgabe häufig wiederkehrt, Minuten zählt und das Ergebnis gegen Quellen oder Checklisten gegengeprüft werden kann, lohnt Automatisierung, sonst bleibt KI ein Risiko für Fehlsteuerung.
Mini-Modell für die Markteinordnung
Für Katastrophen-KI entscheidet weniger Modell-Glanz, sondern ein Tempo-Dreieck aus:
- Datenfluss: Wie schnell kommen Meldungen in ein nutzbares Format.
- Teamkompetenz: Wer promptet, prüft, dokumentiert, und wer darf freigeben.
- Vertrauen: Transparente Regeln für Quellen, Grenzen und Eskalation bei Unsicherheit.
Genau diesen „Ablauf statt Abenteuer“ betonten auch die Partnerstimmen: OpenAI verwies sinngemäß auf die Lücke zwischen Fähigkeiten von KI und realer Feldnutzung, die Gates Foundation auf den Hebel von Qualifizierung nahe an den Communities, ADPC auf die Verbindung von KI mit Geo, Satelliten und Risikoanalytik für bessere Frühwarnung.
Was in der nächsten Phase zählt
Laut OpenAI und Partnern wird eine zweite Phase geprüft, mit Pilotierungen und vertiefter technischer Zusammenarbeit in den kommenden Monaten. Der kritische Punkt ist dann nicht mehr Ideenfindung, sondern Betrieb: Datenzugriff, Rechte, Kosten, Training, und ein Auditpfad für Entscheidungen.
Praktische Checkliste für Organisationen, die pilotieren wollen:
- Ein klarer Use Case: ein Prozess, der heute messbar Zeit frisst, etwa Lagebericht oder Bedarfserfassung.
- Ein Freigabemodell: wer prüft Inhalte, wer übernimmt Verantwortung, wie wird dokumentiert.
- Ein realistischer Datenmix: was ist strukturiert, was ist Text, was ist Bild, und was fehlt regelmäßig.
- Ein Trainingsplan: kurze Übungen mit echten Einsatzartefakten, nicht mit Laborbeispielen.
Wer diese Grundlagen zuerst klärt, verhindert den typischen Pilotfehler: KI wird als zusätzliches Tool eingeführt, statt als Bestandteil einer Entscheidungskette. In der Katastrophenhilfe zählt am Ende nicht, ob KI beeindruckt, sondern ob sie nachweisbar Minuten spart, ohne neue Fehlerklassen zu erzeugen.

