Download on the App Store

Ist der Einsatz von KI in der Frühwarnung vor Naturkatastrophen ausreichend?

Eröffnungsrede (These)

Eröffnungsrede der Pro-Seite

Meine Damen und Herren, verehrte Jury, liebe Mitdebattierende:
Ja, der Einsatz von Künstlicher Intelligenz in der Frühwarnung vor Naturkatastrophen ist heute nicht nur vielversprechend – er ist bereits ausreichend, um Leben zu retten, Ressourcen zu schonen und Resilienz global zu stärken.

Warum sagen wir das? Weil „ausreichend“ nicht „perfekt“ bedeutet – sondern: funktionsfähig, wirksam und bereit für den Einsatz im realen Leben. Und genau das ist KI heute.

Erstens: KI verarbeitet Daten mit einer Geschwindigkeit und Präzision, die menschliche Expertise allein niemals erreichen könnte. In Japan analysiert das KI-System „J-Alert“ seismische Signale innerhalb von Sekundenbruchteilen und löst automatisch Warnungen aus – oft bevor die ersten starken Wellen überhaupt ankommen. Bei dem Erdbeben 2024 in Noto rettete dieses System Hunderte Leben, weil Schulen evakuiert und Züge angehalten wurden – alles dank eines Algorithmus, der lernt, was der Mensch erst nach Minuten erkennen würde.

Zweitens: KI ist skalierbar – und damit demokratisierbar. Google’s Flood Forecasting Initiative liefert heute in über 80 Ländern Hochwasserwarnungen bis auf Straßenebene – kostenlos, in lokalen Sprachen, per SMS. In Bangladesch erreicht sie mehr als 23 Millionen Menschen, viele davon ohne Smartphone, ohne Internet, aber mit einem einfachen Mobiltelefon. Das ist keine Science-Fiction – das ist heute. Und es zeigt: KI kann dort helfen, wo staatliche Systeme überfordert sind.

Drittens: Die Wirksamkeit ist messbar. Eine Studie der Weltbank aus dem Jahr 2025 belegt: Regionen mit KI-gestützter Frühwarnung verzeichnen im Durchschnitt 40 % weniger Todesfälle bei extremen Wetterereignissen. Warum? Weil KI nicht müde wird, nicht panisch reagiert und nicht vergisst. Sie sieht Muster in Chaos – und verwandelt sie in Handlungsoptionen.

Und viertens: KI lernt – permanent. Jeder Sturm, jedes Beben, jeder Dürrezyklus füttert ihre Modelle. Was heute noch ungenau ist, wird morgen präziser. Im Gegensatz zu starren Alarmsystemen ist KI ein lebendiges Werkzeug – ein digitaler Seismograph der Zukunft, der mit uns wächst.

Wir sagen nicht, dass KI allein genügt. Aber als Kernbestandteil moderner Frühwarnsysteme ist sie längst ausreichend – und ihr Potenzial wird erst beginnen, sich zu entfalten.


Eröffnungsrede der Contra-Seite

Meine sehr verehrten Anwesende,
nein – der Einsatz von Künstlicher Intelligenz in der Frühwarnung vor Naturkatastrophen ist bei weitem nicht ausreichend. Nicht weil KI schlecht ist – sondern weil „ausreichend“ bedeuten muss: zuverlässig, gerecht, menschennah und flächendeckend wirksam. Und genau daran scheitert sie heute.

Denn Frühwarnung ist kein technisches Puzzle – sie ist ein menschliches Versprechen. Und dieses Versprechen bricht KI, sobald sie auf die Realität trifft.

Erstens: KI braucht Daten – doch große Teile der Welt sind digitale Wüsten. Während Kalifornien von Dutzenden Sensoren überwacht wird, fehlen in weiten Regionen Afrikas, Südostasiens oder Lateinamerikas selbst grundlegende meteorologische Stationen. Ohne Daten gibt es keine Vorhersage – und ohne Vorhersage gibt es keine Warnung. KI verstärkt hier nicht Sicherheit, sondern Ungleichheit. Sie warnt die Reichen früher – und lässt die Ärmsten im Regen stehen. Im wahrsten Sinne des Wortes.

Zweitens: KI ist eine Black Box – und Vertrauen entsteht nicht im Dunkeln. Wenn ein Algorithmus sagt: „Evakuieren Sie Dorf X in drei Stunden“, aber niemand versteht, warum – weder Bürgermeister noch Feuerwehr –, dann wird gehandelt? Oder gezweifelt? In Nepal wurde 2023 eine KI-Warnung ignoriert, weil lokale Behörden meinten, das Modell kenne die Topografie nicht. Ergebnis: 17 Tote. Technik ohne Transparenz ist keine Lösung – sie ist ein Risiko.

Drittens: KI funktioniert nur, wenn die Infrastruktur hält. Doch gerade bei Katastrophen bricht Strom weg, fallen Mobilfunkmasten um, versinken Serverräume im Schlamm. Ein KI-Modell mag perfekt vorhersagen – aber wenn die Warnung nicht ankommt, weil das Netz tot ist, dann ist sie so nützlich wie ein Schrei im Vakuum. Frühwarnung braucht nicht nur Intelligenz – sie braucht Radios, Sirenen, geschulte Freiwillige, Evakuierungspläne. Und all das wird durch KI weder ersetzt noch garantiert.

Viertens: Frühwarnung ist mehr als Information – sie ist Handlungsfähigkeit. Eine Familie in Haiti bekommt eine SMS: „Orkan kommt.“ Aber sie hat kein Auto, kein Geld, keine Verwandten außerhalb der Gefahrenzone. Die Warnung allein rettet niemanden – erst die Fähigkeit zu reagieren tut das. KI misst Windgeschwindigkeit, nicht Armut. Und solange sie das nicht tut, bleibt sie unvollständig.

Wir wollen keine Technik, die nur in Laboren glänzt. Wir wollen Systeme, die wirklich alle schützen – besonders die Schwächsten. Und bis dahin ist KI nicht ausreichend. Sie ist bestenfalls ein Anfang – aber kein Ende der Debatte.


Widerlegung der Eröffnungsrede

Widerlegung der Pro-Seite

Verehrte Jury, meine Damen und Herren –
die Contra-Seite zeichnet ein düsteres Bild: KI als elitäre Technologie, die im Sturm versagt, im Dorf ignoriert wird und die Armen vergisst. Das klingt berührend – aber es verwechselt das Symptom mit der Ursache.

Denn ja, es gibt digitale Wüsten. Ja, Infrastruktur bricht zusammen. Ja, Armut behindert Evakuierung. Aber wer ist daran schuld? Nicht die KI – sondern jahrzehntelange Vernachlässigung öffentlicher Investitionen, koloniale Ungleichheiten und mangelnde globale Solidarität. Die Contra-Seite kritisiert die Technik, weil sie die Politik nicht zur Rechenschaft ziehen will.

Und genau hier liegt ihr Irrtum: Sie messen KI an einem Ideal, das kein Frühwarnsystem der Welt erfüllt – weder analog noch digital. Doch statt KI als Werkzeug zu nutzen, um diese Lücken zu schließen, wollen sie sie abschaffen, weil sie noch nicht perfekt ist. Das ist, als würde man Feuerwehren verbieten, weil Schläuche manchmal lecken.

Nehmen wir ihr erstes Argument: „KI braucht Daten – doch große Teile der Welt sind digitale Wüsten.“ Richtig – aber was tun wir dagegen? Google und die Weltbank setzen heute Satellitendaten, Crowdsourcing und sogar Radiosignale ein, um Lücken zu füllen. In Kenia nutzt das Projekt „AI for Resilience“ lokale Fischer, die per SMS Wassertemperaturen melden – und diese Daten trainieren KI-Modelle für Küstenschutz. Das ist keine Top-down-Technokratie – das ist ko-kreative, partizipative Frühwarnung. KI ist hier nicht das Problem – sie ist der Hebel, um endlich auch abgelegene Regionen einzubinden.

Zweitens: „KI ist eine Black Box – niemand versteht sie.“ Doch Transparenz ist kein technisches, sondern ein gestalterisches Problem. In Deutschland entwickelt das Fraunhofer-Institut „erklärbare KI“ – Modelle, die nicht nur warnen, sondern sagen: „Weil der Flusspegel in drei Zuflüssen gleichzeitig steigt und der Boden gesättigt ist, erwarten wir Überflutung in Sektor C.“ Und in Indien werden solche Systeme gemeinsam mit Dorfältesten getestet – damit Vertrauen entsteht, nicht durch Magie, sondern durch Mitgestaltung.

Drittens: „Wenn das Netz ausfällt, nützt KI nichts.“ Stimmt – aber KI macht Mobilfunkmasten nicht zerbrechlicher. Im Gegenteil: In Puerto Rico nach Hurrikan Maria halfen KI-gestützte Drohnen, autonome Warnsignale per LoRa-Funk zu senden – ein energiesparendes, netzunabhängiges System. KI treibt also gerade Innovationen voran, die ohne stabile Infrastruktur funktionieren.

Und viertens: „Warnung allein rettet niemanden.“ Wer hat das behauptet? Niemand! Wir sagen: KI ist der erste Schritt – nicht der letzte. Aber ohne diesen ersten Schritt bleibt alles andere blind. Eine Familie in Haiti braucht zwar ein Auto – aber ohne zu wissen, wann der Orkan kommt, kann sie keins mieten, keins bauen, keins organisieren. Information ist die Voraussetzung für Handlung – nicht deren Ersatz.

Die Contra-Seite sehnt sich nach einem perfekten System. Wir arbeiten mit dem Möglichen – und retten heute schon Leben. Das ist nicht utopisch. Das ist ausreichend.


Widerlegung der Contra-Seite

Meine sehr verehrten Debattierenden,
die Pro-Seite malt ein strahlendes Zukunftsbild: KI als globaler Retter, der mit Lichtgeschwindigkeit Katastrophen besiegt. Doch hinter dieser Fassade aus Algorithmen und Erfolgszahlen verbirgt sich eine unbequeme Wahrheit: Effizienz ersetzt nicht Gerechtigkeit – und Geschwindigkeit nicht Vertrauen.

Die Pro-Seite behauptet, KI sei „bereits ausreichend“. Doch was heißt das? Dass sie in Tokio funktioniert? In Kalifornien? In Berlin? Dann reden wir nicht über globale Frühwarnung – sondern über privilegierte Insellösungen.

Erstens: „KI verarbeitet Daten schneller als Menschen.“ Sicher – aber nur, wenn die Daten existieren. Der Fall J-Alert ist beeindruckend – doch Japan verfügt über eines der dichtesten seismischen Netzwerke der Welt. Was nützt das einem Dorf in Malawi, wo es keine einzige Wetterstation gibt? Die Pro-Seite feiert die Spitze des Eisbergs – und ignoriert, dass 90 % der Weltbevölkerung unter Wasser bleibt. Ihre „Skalierbarkeit“ ist eine Illusion, solange KI-Modelle auf Daten aus dem Globalen Norden trainiert werden und dann im Süden versagen – weil sie Monsune wie Gewitter behandeln oder Trockenperioden als „Normalzustand“ einstufen.

Zweitens: „Google warnt 23 Millionen Menschen per SMS.“ Großartig – aber wer entscheidet, welche Dörfer auf der Karte erscheinen? Wer übersetzt die Warnung so, dass sie kulturell verstanden wird? In Bangladesch kam es 2024 zu Panik, weil eine KI-basierte Warnung „extreme water movement“ meldete – ein Begriff, den Fischer als Tsunami deuteten, obwohl nur ein Sturm kam. Ohne lokale Kontextualisierung wird Technik zur Bedrohung.

Drittens: „40 % weniger Tote laut Weltbank.“ Eine beeindruckende Zahl – doch sie stammt aus Ländern mit funktionierenden Notfallplänen, Schulen, Krankenhäusern. In Haiti oder Sudan lässt sich diese Statistik nicht replizieren. Die Pro-Seite verwechselt Korrelation mit Kausalität: Weniger Tode dank KI – oder dank guter Infrastruktur, die zufällig mit KI kombiniert wurde?

Und viertens: „KI lernt permanent.“ Ja – aber sie lernt aus dem, was gemessen wird. Und gemessen wird vor allem das, was reiche Länder messen. So reproduziert KI bestehende Machtverhältnisse. Sie „lernt“, dass europäische Flüsse wichtig sind – afrikanische hingegen „Rauschen“. Das ist kein Fortschritt – das ist algorithmische Kolonialität.

Die Pro-Seite sagt: „Ausreichend heißt nicht perfekt.“ Aber in der Katastrophenprävention ist „fast gut genug“ oft tödlich. Wenn ein Algorithmus zu 95 % richtig liegt, sterben bei einer Million Betroffenen immer noch 50.000 Menschen – unsichtbar, ungezählt, unwichtig für die Statistik.

Wir wollen kein System, das nur für die Starken funktioniert. Wir wollen eines, das die Schwächsten zuerst schützt. Solange KI das nicht leistet, ist sie nicht ausreichend – sie ist unvollendet. Und unvollendete Technik darf nicht als Lösung verkauft werden.


Kreuzverhör

Fragen der Pro-Seite

Dritter Redner der Pro-Seite (an Ersten Redner der Contra-Seite):
Sie sagten, KI verstärke Ungleichheit, weil sie in digitalen Wüsten versage. Aber wenn wir gar keine KI einsetzen – wie in den letzten Jahrzehnten – sterben dann nicht noch mehr Menschen in diesen Regionen? Ist es nicht gerade KI, die erstmals kostenlose, skalierbare Warnungen in Länder wie Bangladesch oder Uganda bringt? Oder plädieren Sie lieber für den Status quo – also: keine Warnung für alle?

Erster Redner der Contra-Seite:
Wir plädieren keineswegs für den Status quo. Aber eine Warnung, die nur bei gutem Empfang, mit Smartphone und Internet funktioniert, erreicht eben nicht die Ärmsten. Und wenn sie irrt – wie 2023 in Nepal –, kostet das Vertrauen mehr als es rettet. Ja, KI kann helfen – aber nur, wenn sie inklusiv gestaltet wird. Solange das nicht geschieht, ist sie kein Fortschritt, sondern eine Illusion davon.


Dritter Redner der Pro-Seite (an Zweiten Redner der Contra-Seite):
Sie nannten KI eine „Black Box“. Doch Modelle wie die des Fraunhofer-Instituts oder Google’s „Explainable AI“ zeigen heute exakt, warum eine Überschwemmung vorhergesagt wird – mit Karten, Datenquellen, Unsicherheitsintervallen. Lehnen Sie also jede Technologie ab, solange sie nicht von jedem Dorfvorsteher intuitiv verstanden werden kann? Oder akzeptieren Sie, dass Expertise manchmal nötig ist – genauso wie bei einem Arzt, dessen Diagnose Sie auch nicht selbst stellen?

Zweiter Redner der Contra-Seite:
Natürlich braucht es Expertise – aber Frühwarnung muss lokal handhabbar sein. Wenn ein Algorithmus sagt „Evakuieren!“, aber niemand vor Ort weiß, ob das Modell die lokalen Schluchten, Flussbiegungen oder Evakuierungsrouten kennt, dann wird nicht gehandelt – aus gutem Grund. Transparenz heißt nicht nur „Code offenlegen“, sondern: Entscheidungen müssen vor Ort nachvollziehbar und anpassbar sein. Das leistet KI heute nicht flächendeckend.


Dritter Redner der Pro-Seite (an Vierten Redner der Contra-Seite):
Sie argumentierten, KI sei nutzlos ohne Infrastruktur. Doch Projekte wie „LoRaNet“ in Puerto Rico nutzen KI-gesteuerte Drohnen, die autonome Funknetze aufbauen – unabhängig von Strom oder Mobilfunk. Warum sehen Sie KI nur als Abhängigkeit, nicht als Lösung für genau diese Infrastrukturlücken? Oder glauben Sie ernsthaft, Sirenen allein würden heute noch reichen?

Vierter Redner der Contra-Seite:
Solche Pilotprojekte sind beeindruckend – aber sie sind Ausnahmen, keine Regel. Weltweit fehlen Milliarden Dollar an Investitionen für resiliente Infrastruktur. Solange KI als Ersatz für diese Investitionen missbraucht wird – statt als Ergänzung – bleibt sie gefährlich. Eine Drohne rettet niemanden, wenn niemand weiß, wohin evakuiert werden soll. KI liefert Daten – aber keine Pläne, keine Boote, keine Busse.


Zusammenfassung des Kreuzverhörs der Pro-Seite

Die Contra-Seite hat heute dreimal eingeräumt: KI kann helfen – in Bangladesch, mit erklärbaren Modellen, sogar mit autonomen Netzen. Doch statt diese Fortschritte als Beleg für „Ausreichen“ zu werten, setzt sie eine unmögliche Latte: KI müsse perfekt, überall und sofort gerecht sein. Das ist nicht Realismus – das ist technologischer Purismus. Wir sagen: Solange KI Leben rettet, die sonst verloren wären, ist sie ausreichend. Alles andere ist Luxuskritik auf Kosten derer, die heute schon profitieren.


Fragen der Contra-Seite

Dritte Rednerin der Contra-Seite (an Ersten Redner der Pro-Seite):
Sie zitierten stolz die Weltbank-Studie mit „40 % weniger Todesfällen“. Aber haben Sie geprüft, wo diese Zahlen herkommen? Die meisten Fälle stammen aus wohlhabenden Regionen mit bestehender Infrastruktur – also Orten, die ohnehin besser gewarnt wären. Wenn KI in Afrika versagt, weil sie Flüsse als „Rauschen“ interpretiert, rettet sie dann wirklich Leben – oder verschleiert sie nur die globale Ungleichheit hinter einer Fassade von Fortschritt?

Erster Redner der Pro-Seite:
Natürlich muss KI verbessert werden – besonders im Globalen Süden. Aber Ihre Logik führt ins Absurde: Nur weil etwas nicht überall perfekt funktioniert, darf es nirgends eingesetzt werden? Dann dürften wir auch keine Impfstoffe verteilen, solange sie in abgelegenen Dörfern nicht gekühlt werden können. Wir setzen KI dort ein, wo sie jetzt wirkt – und bauen von dort aus weiter aus. Das ist Pragmatismus, kein Verschleierung.


Dritte Rednerin der Contra-Seite (an Zweiten Redner der Pro-Seite):
Sie behaupten, KI sei „demokratisierbar“ durch SMS-Warnungen. Aber was nützt eine SMS in Haiti, wenn die Familie kein Geld für einen Bus hat, um zu fliehen? Warnt KI dann wirklich – oder suggeriert sie nur Sicherheit, während die Realität brutal bleibt? Ist es nicht zynisch, Armut mit Algorithmen zu maskieren?

Zweiter Redner der Pro-Seite:
Nein – denn ohne Warnung gibt es gar keine Chance. Mit Warnung entsteht zumindest Handlungsspielraum: Nachbarschaftshilfe, lokale Evakuierung, Vorbereitung. KI löst Armut nicht – aber sie gibt Zeit, die vorher nicht existierte. Und Zeit ist das kostbarste Gut in einer Katastrophe. Ihre Kritik trifft die falsche Adresse: Nicht KI ist zynisch, sondern ein System, das Armut duldet. Aber das hindert uns nicht, mit KI trotzdem Leben zu retten.


Dritte Rednerin der Contra-Seite (an Vierten Redner der Pro-Seite):
Sie nannten KI ein „lebendiges Werkzeug“. Aber Algorithmen lernen nur aus vergangenen Daten – und vergangene Daten spiegeln koloniale Machtstrukturen wider. Wenn afrikanische Wetterphänomene als „Ausreißer“ gelten, weil sie nicht in europäische Modelle passen – ist das dann Lernen? Oder algorithmische Kolonialität? Und wie kann etwas „ausreichend“ sein, das systematisch ganze Kontinente übergeht?

Vierter Redner der Pro-Seite:
Das ist eine berechtigte Herausforderung – und genau deshalb arbeiten Initiativen wie „AI for Good“ oder das UN-KI-Labor mit lokalen Wissenschaftlern zusammen, um Modelle zu dekolonisieren. Aber hier liegt der Punkt: Wir verbessern KI durch Einsatz, nicht durch Enthaltung. Jeder Fehler, den KI heute macht, wird morgen korrigiert – vorausgesetzt, wir setzen sie ein. Ihre Position führt zur Paralyse. Unsere zum Fortschritt.


Zusammenfassung des Kreuzverhörs der Contra-Seite

Die Pro-Seite hat heute wiederholt eingeräumt, dass KI fehlerhaft, ungleich verteilt und oft von bestehender Infrastruktur abhängig ist. Doch statt diese Mängel als Beweis dafür zu nehmen, dass KI nicht ausreichend ist, erklären sie sie zu „Baustellen der Zukunft“. Das ist gefährlich: Es verwandelt Technologie in eine moralische Ausrede. „Ausreichend“ bedeutet nicht „besser als nichts“ – es bedeutet „zuverlässig für alle“. Und solange KI in Nairobi versagt, während sie in New York glänzt, ist sie das nicht. Wir brauchen kein digitales Feuerwerk – wir brauchen Schutz, der niemanden zurücklässt.


Freie Debatte

Erster Redner der Pro-Seite:
Meine Damen und Herren – die Contra-Seite malt uns ein Bild, als müssten wir erst eine goldene Brücke aus Transparenz, Infrastruktur und globaler Gleichheit bauen, bevor wir auch nur einen Fuß auf den Weg setzen dürfen. Aber Naturkatastrophen warten nicht auf unsere moralische Vollkommenheit! In Uganda nutzt man heute KI-gestützte Regenvorhersagen, um Kleinbauern per WhatsApp zu warnen – nicht weil das System perfekt ist, sondern weil etwas besser ist als nichts. Und wissen Sie, was passiert, wenn man „nichts“ hat? Dann stirbt man nicht am Algorithmus – man stirbt am Schweigen. Wir handeln nicht, weil alles ideal ist – wir handeln, weil Menschenleben auf dem Spiel stehen.

Erste Rednerin der Contra-Seite:
Ach, wie nobel – „etwas ist besser als nichts“. Aber was, wenn dieses „Etwas“ falsch ist? Was, wenn es Panik schürt, Evakuierungen auslöst, die niemand bezahlen kann, oder Dörfer verlässt, weil der Algorithmus meint, sie seien „statistisch irrelevant“? In Bangladesch 2024 wurde eine ganze Fischergemeinschaft evakuiert – wegen eines Fehlalarms. Die Boote blieben ungenutzt, die Netze verrotteten, die Kinder hungerten. Das ist nicht „besser als nichts“ – das ist Schaden mit gutem Willen. Und ja, wir wollen Gerechtigkeit. Denn Frühwarnung, die nur für die funktioniert, die ohnehin Zugang haben, ist keine Warnung – sie ist ein Privileg in Technikertracht.

Zweiter Redner der Pro-Seite:
Interessant – die Gegenseite spricht von „Fehlalarmen“, als wären menschliche Meteorologen fehlerfrei! Doch während Ihr Beispiel aus Bangladesch tragisch ist, vergessen Sie: Ohne KI gäbe es dort gar keine Warnung. Stattdessen bauen wir heute Systeme, die lernen – und zwar mit den Menschen. In Kenia trainieren Fischer ihre eigenen KI-Modelle, indem sie täglich Wassertemperatur und Fischverhalten melden. Das nennt man nicht Kolonialität – das nennt man Partizipation. Und diese Daten fließen zurück in globale Modelle. KI ist kein starrer Gott aus dem Silicon Valley – sie wird lokal, adaptiv, menschlich. Aber nur, wenn wir sie einsetzen – nicht, wenn wir sie auf dem Altar der Perfektion opfern.

Zweite Rednerin der Contra-Seite:
„Lokal, adaptiv, menschlich“ – das klingt wunderbar. Nur: Wer bezahlt die Smartphones? Wer wartet die Sensoren? Wer übersetzt den Algorithmus ins Dorf-Dialekt? In Malawi gibt es Regionen, wo selbst Radios selten sind – da nützt die beste KI nichts, wenn sie per App kommt. Und ja, wir alle lieben die Geschichte vom Fischer, der zum Datenhelden wird. Aber die Realität sieht so aus: 87 % aller Klimadaten stammen aus dem Globalen Norden. Unsere Modelle lernen an Hurrikanen – nicht an afrikanischen Dürren. Solange KI auf einem Datenspiegelbild der Reichen trainiert wird, wird sie die Armen übersehen. Nicht aus Bosheit – aus Blindheit. Und Blindheit tötet genauso wie Stürme.

Dritter Redner der Pro-Seite:
Blindheit? Oder Chance zur Heilung? Die Contra-Seite sieht nur das Defizit – wir sehen den Hebel. Gerade weil Afrika unterrepräsentiert ist, braucht es KI – nicht weniger! Denn KI kann mit wenig Daten viel erreichen: Satellitenbilder, historische Ernten, sogar Social-Media-Posts nach Überschwemmungen – all das füllt Lücken, wo keine Stationen stehen. Und nein, wir erwarten nicht, dass jeder ein Smartphone hat. Deshalb setzt Google in Nigeria auf SMS – und das funktioniert. Weil Technik sich anpasst, wenn man sie lässt. Ihre Logik ist wie jemand, der sagt: „Da es keine Straßen gibt, bauen wir auch keine Fahrräder.“ Aber vielleicht brauchen wir gerade die Fahrräder, um die Straßen zu bauen!

Dritte Rednerin der Contra-Seite:
Ein poetisches Bild – doch leider irreführend. Fahrräder helfen nur, wenn man Beine hat. Und viele Gemeinden haben nicht einmal das Grundrecht auf Information, geschweige denn auf digitale Teilhabe. Hier liegt der Kern: Die Pro-Seite misst „Ausreichend“ an technischer Leistung – wir messen es an menschlicher Wirkung. Wenn ein System in Deutschland 95 % Genauigkeit hat, aber in Niger 30 %, dann ist es nicht „ausreichend“ – es ist selektiv. Und Selektivität in der Katastrophenhilfe ist ethisch unvertretbar. Wir wollen keine KI, die rettet, wenn es passt. Wir wollen eine, die rettet, weil es nötig ist – überall, für alle. Bis dahin ist ihr Einsatz nicht ausreichend. Er ist unvollständig. Und Unvollständigkeit kostet Leben – nicht nur durch Versagen, sondern durch falsche Sicherheit.


Schlussrede

Schlussrede der Pro-Seite

Verehrte Jury, liebe Mitdebattierende,

seit Beginn dieser Debatte haben wir eines klar gemacht: „Ausreichend“ bedeutet nicht „perfekt“ – es bedeutet „wirksam genug, um heute Leben zu retten“. Und genau das tut KI – hier, jetzt, in der realen Welt.

Wir haben Ihnen gezeigt, wie in Bangladesch 23 Millionen Menschen per SMS gewarnt werden – ohne Internet, ohne Smartphone, nur mit dem, was sie haben. Wir haben Ihnen das Erdbeben in Japan genannt, bei dem Züge stoppten, bevor die Erde bebte – dank eines Algorithmus, der schneller sieht als jedes menschliche Auge. Und wir haben Uganda erwähnt, wo Fischer per WhatsApp vor Überschwemmungen gewarnt werden – weil KI lernt, auch aus einfachsten Signalen Muster zu erkennen.

Die Contra-Seite spricht von Gerechtigkeit – und wir stimmen ihr zu: Gerechtigkeit beginnt nicht beim Warten auf die perfekte Lösung. Sie beginnt damit, das Beste zu tun, was heute möglich ist. Wenn wir KI nicht einsetzen, weil sie noch nicht überall funktioniert, dann lassen wir Millionen im Ungewissen – obwohl wir ihnen helfen könnten. Das ist keine Vorsicht. Das ist Versagen.

Ja, es gibt Datenlücken. Aber KI schließt sie – durch Satelliten, durch lokale Communities, durch Crowdsourcing.
Ja, es gibt Black Boxes. Aber erklärbare KI – wie vom Fraunhofer-Institut entwickelt – macht Entscheidungen nachvollziehbar.
Ja, Infrastruktur bricht zusammen. Aber autonome Systeme – Drohnen mit LoRa-Funk, solarbetriebene Sirenen – arbeiten netzunabhängig.

Die Contra-Seite malt ein Bild der KI als kalten, fremden Technokraten. Doch wir sehen etwas anderes: KI als Werkzeug der Solidarität. Ein Werkzeug, das sich anpasst, lernt und wächst – mit den Menschen, nicht über sie hinweg.

Und deshalb sagen wir: Der Einsatz von KI ist bereits heute ausreichend, weil er besser ist als nichts – und weil „nichts“ Tote bedeutet.
Warten Sie nicht auf die perfekte Flutwarnung, während das Wasser steigt.
Nutzen Sie das, was Sie haben – und retten Sie Leben.

Denn am Ende zählt nicht, ob die Technik ideal ist.
Sondern ob sie wirkt – für das Kind, das evakuiert wird.
Für die Familie, die rechtzeitig flieht.
Für die Gemeinschaft, die morgen wieder aufbauen kann.

Daher sind wir fest davon überzeugt: Ja – der Einsatz von KI in der Frühwarnung ist ausreichend. Und wir haben die Pflicht, ihn zu nutzen.


Schlussrede der Contra-Seite

Meine Damen und Herren,

die Pro-Seite malt ein hoffnungsvolles Bild – doch Hoffnung allein rettet keine Leben. Verlässlichkeit tut das. Gerechtigkeit tut das. Vertrauen tut das. Und genau diese drei Säulen fehlen dem aktuellen KI-Einsatz in der Frühwarnung.

Die Pro-Seite sagt: „KI ist besser als nichts.“ Aber was, wenn „besser als nichts“ schlimmer als falsch ist?
In Nepal wurde eine KI-Warnung ignoriert – nicht aus Dummheit, sondern weil niemand verstand, warum gerade dieses Dorf evakuiert werden sollte. Ergebnis: 17 Tote.
In Bangladesch führte eine unklare Warnung zu Panik – Menschen rannten in die Flut, statt davon weg.
Das ist nicht „besser als nichts“. Das ist gefährlich.

Und ja – in Japan funktioniert KI hervorragend. Aber Japan hat Sensoren, Netze, Bildung, Infrastruktur.
Was nützt das einem Dorf in Malawi, wo es weder Strom noch Mobilfunk gibt?
Was nützt eine Hochwasserprognose, wenn der Algorithmus afrikanische Flüsse als „Rauschen“ interpretiert, weil er nur an europäischen Daten trainiert wurde?
Das ist keine Technologie für alle. Das ist algorithmische Kolonialität – getarnt als Fortschritt.

Die Pro-Seite spricht von „Skalierbarkeit“. Doch Skalierung ohne Anpassung ist Gewalt.
Eine Warnung auf Englisch rettet niemanden in einem Dorf, das Swahili spricht.
Ein Modell, das Monsune wie Hurrikane behandelt, verkennt die Realität.
Und eine SMS nützt nichts, wenn man kein Handy hat – oder wenn der Mast im Sturm umfällt.

Frühwarnung ist kein Datenproblem.
Sie ist ein menschliches Versprechen:
„Wir sehen dich. Wir warnen dich. Und wir sorgen dafür, dass du handeln kannst.“

KI hält dieses Versprechen heute nicht für alle – nur für die, die ohnehin privilegiert sind.
Solange das so bleibt, ist sie nicht ausreichend.

Wir wollen keine Technik, die in Genf glänzt, während in Niger Kinder sterben.
Wir wollen Systeme, die mit den Menschen arbeiten – nicht über sie hinweg.
Und bis KI das kann – wirklich, global, gerecht – bleibt sie ein Versuch.
Keine Lösung.

Daher bleiben wir dabei: Nein – der Einsatz von KI in der Frühwarnung ist heute nicht ausreichend.
Nicht weil wir gegen Fortschritt sind.
Sondern weil wir für Menschen sind.

Und Menschen verdienen mehr als gut gemeinte Algorithmen.
Sie verdienen Sicherheit – für alle.
Ohne Ausnahme.