Ist die Überwachung des öffentlichen Raumes durch KI-gestützte Kameras ethisch vertretbar?
Eröffnungsrede (These)
Eröffnungsrede der Pro-Seite
Meine Damen und Herren, verehrte Jury, liebe Zuhörerinnen und Zuhörer:
Stellen Sie sich vor, Sie gehen abends durch eine belebte Innenstadt – und fühlen sich sicher. Nicht, weil nichts passieren könnte, sondern weil Sie wissen: Sollte etwas geschehen, wird Hilfe kommen – schnell, präzise, effektiv. Genau das ermöglicht KI-gestützte Videoüberwachung im öffentlichen Raum. Und ja – wir sagen: Solange sie streng reguliert, transparent und dem Gemeinwohl verpflichtet ist, ist diese Technologie nicht nur praktisch sinnvoll, sondern auch ethisch vertretbar.
Denn Ethik heißt nicht, Fortschritt zu fürchten – sondern ihn verantwortungsvoll zu gestalten. Unsere Maßstäbe sind klar: Wir messen an Sicherheit, Gerechtigkeit und demokratischer Kontrolle.
Erstens: KI rettet Leben – buchstäblich. In London erkannte ein Algorithmus innerhalb von Sekunden einen bewaffneten Angriff auf eine Menschenmenge, bevor menschliche Beobachter reagieren konnten. Die Polizei war am Tatort, bevor das erste Opfer fiel. Solche Systeme ersetzen keine Polizist:innen – sie machen ihre Arbeit effizienter, schneller, präventiver. In einer Welt, in der Terror, Gewalt und organisierte Kriminalität zunehmen, ist das kein Luxus – es ist Pflicht.
Zweitens: KI kann gerechter sein als der Mensch. Ja, Algorithmen können voreingenommen sein – aber nur, wenn wir sie schlecht trainieren. Gut gestaltete Systeme analysieren Verhalten, nicht Hautfarbe, Geschlecht oder Kleidung. Im Gegensatz zu menschlichen Wachen, die unbewusst stereotypisieren, kann KI objektiv sein – wenn wir sie dazu zwingen. Und das tun wir: durch strenge Audits, offene Quellcodes und unabhängige Aufsicht.
Drittens: Überwachung muss nicht totalitär sein – sie kann demokratisch legitimiert sein. In Estland entscheiden Bürger:innen per E-Voting darüber, wo Kameras installiert werden – und welche Daten wie lange gespeichert werden dürfen. Das ist kein Big Brother, das ist ein sozialer Vertrag: Wir tauschen ein Stück Anonymität gegen kollektive Sicherheit – freiwillig, transparent, reversibel.
Und viertens: Das Recht auf Sicherheit ist ein Menschenrecht. Artikel 3 der Allgemeinen Erklärung der Menschenrechte schützt das Recht auf Leben, Freiheit und Sicherheit. Wer sagt, dass nur die Freiheit vom Beobachtetwerden zählt, vergisst, dass viele Menschen – besonders Frauen, Minderheiten, Obdachlose – sich erst dann frei fühlen, wenn sie wissen: Niemand kann sie einfach angreifen, ohne Konsequenzen.
Wir wollen keine gläsernen Bürger – aber wir wollen eine Gesellschaft, in der niemand im Dunkeln zurückgelassen wird.
Eröffnungsrede der Contra-Seite
Meine sehr verehrten Damen und Herren,
stellen Sie sich vor, Sie gehen durch dieselbe belebte Innenstadt – doch plötzlich zögern Sie, ein Plakat zu fotografieren. Sie lachen leiser. Sie weichen einer Demonstration aus. Nicht, weil Sie etwas zu verbergen hätten – sondern weil Sie spüren, dass jemand zusieht. Und genau das ist das Problem: KI-gestützte Massenüberwachung verändert nicht nur, was wir tun – sondern wer wir sind.
Deshalb sagen wir klar: Nein, die flächendeckende Überwachung des öffentlichen Raums durch Künstliche Intelligenz ist ethisch nicht vertretbar. Denn sie untergräbt die Grundpfeiler einer freien Gesellschaft: Autonomie, Würde und das Recht, ungestraft anders zu sein.
Unser Maßstab ist einfach: Ein freier Mensch braucht Räume, in denen er nicht beobachtet, bewertet oder vorweg genommen wird. Der öffentliche Raum ist einer davon – oder sollte es sein.
Erstens: Überwachung erzeugt den „Chilling Effect“ – und tötet Demokratie im Keim. Studien aus China zeigen: Wo Kameras mit Gesichtserkennung stehen, sinkt die Teilnahme an Protesten um bis zu 60 Prozent – selbst bei legalen Versammlungen. Menschen ziehen sich zurück, aus Angst vor Profiling, falschen Verdächtigungen oder schlicht: der bloßen Existenz in einer Datenbank. Aber Demokratie lebt vom Widerspruch, vom Auffallen, vom Mut, sichtbar zu sein – nicht vom stillen Gehorsam.
Zweitens: KI ist nicht neutral – sie ist Spiegel unserer Vorurteile. In den USA identifizierten Polizeialgorithmen dunkelhäutige Männer mit bis zu 35 % höherer Fehlerquote als weiße. Warum? Weil die Trainingsdaten aus historisch diskriminierenden Polizeipraktiken stammen. Und sobald ein Algorithmus Sie als „verdächtig“ markiert, ist der Schaden oft irreversibel – selbst wenn Sie unschuldig sind.
Drittens: Einmal installiert, lässt sich die Technik nie mehr einfangen. Was heute zur Terrorabwehr dient, wird morgen genutzt, um Schulden einzutreiben, politische Gegner zu tracken oder soziale Kreditsysteme zu füttern. Dieser „Mission Creep“ ist kein hypothetisches Risiko – er ist historische Realität. In Großbritannien wurden Kameras, die ursprünglich für Bombenentschärfung gedacht waren, binnen fünf Jahren zur Überwachung von Obdachlosen eingesetzt.
Und viertens – und das ist der tiefste Punkt: Der Mensch wird entmündigt. Wenn jede Geste, jeder Blick, jedes Verweilen von einer Maschine interpretiert wird, verlieren wir das Recht, unklar, widersprüchlich, menschlich zu sein. KI reduziert uns auf Verhaltensmuster – nicht auf Personen. Und eine Gesellschaft, die den Menschen als Datenstrom sieht, hat seine Würde bereits aufgegeben.
Wir wollen Sicherheit – ja. Aber nicht um den Preis unserer Freiheit. Denn wer sich ständig beobachtet fühlt, lebt nicht sicher – er lebt gefangen.
Widerlegung der Eröffnungsrede
Widerlegung der Pro-Seite
(Zweiter Redner der Pro-Seite)
Meine Damen und Herren,
die Gegenseite zeichnet ein düsteres Bild – fast so, als würden KI-Kameras nachts heimlich unsere Träume stehlen und sie an einen digitalen Big Brother verkaufen. Aber lassen Sie uns eines klarstellen: Wir debattieren heute nicht über dystopische Science-Fiction, sondern über reale Technologie in realen Demokratien.
Die Contra-Seite behauptet, KI-Überwachung töte die Demokratie durch einen sogenannten „Chilling Effect“. Doch wo bleibt der Chilling Effect, wenn eine Frau abends allein nach Hause geht und sich fürchtet? Wo bleibt er, wenn Obdachlose in Parks zusammengeschlagen werden, während Passanten wegschauen? Sicherheit ist keine Bedrohung der Freiheit – sie ist ihre Voraussetzung. Ohne das Gefühl, unbehelligt existieren zu können, gibt es keine freie Meinungsäußerung, keinen Protest, kein öffentliches Leben. Die Gegenseite vergisst: Wer Angst vor Gewalt hat, zieht sich zurück – nicht wegen Kameras, sondern wegen der Abwesenheit von Schutz.
Zweitens: Ja, Algorithmen können diskriminieren – aber nur, wenn wir sie schlecht gestalten. Die Gegenseite zitiert US-Studien aus Polizeibehörden, die historisch rassistisch agierten. Doch daraus folgt nicht, dass KI grundsätzlich böse ist – sondern dass wir sie besser regulieren müssen! Genau das tun wir: Mit verpflichtenden Bias-Audits, transparenten Trainingsdaten und unabhängigen Ethikkommissionen. Der Fehler liegt nicht in der Technik, sondern in ihrer missbräuchlichen Anwendung – und dagegen haben wir Werkzeuge. Sollen wir deshalb auf Rettungswagen verzichten, weil jemand einmal betrunken gefahren ist?
Drittens: Der berühmte „Mission Creep“ – als ob Technologie zwangsläufig ins Totalitäre kippt. Aber Gesetze sind keine Dekoration! In der EU unterliegt jede KI-Anwendung der DSGVO, dem Grundgesetz und dem neuen KI-Act. Was in China passiert, sagt nichts darüber, was in Berlin möglich ist. Demokratien haben Bremsen – und sie benutzen sie. Die Idee, dass wir morgen plötzlich unser Sozialverhalten bewertet bekommen, ignoriert, dass Parlamente, Gerichte und Bürger:innen genau das verhindern können – und tun.
Und viertens: Die Behauptung, KI entmünde den Menschen, ist eine romantische Verklärung des Chaos. Niemand wird reduziert – solange das System Verhalten analysiert, nicht Identitäten speichert. Moderne Systeme erkennen etwa „aggressives Verhalten“ oder „herumliegende Gegenstände“, ohne je ein Gesicht zu speichern. Das ist kein gläserner Mensch – das ist intelligente Infrastruktur, wie Ampeln oder Notrufsäulen.
Wir wollen keine Überwachung um ihrer selbst willen. Aber wir wollen eine Welt, in der niemand im öffentlichen Raum zum Opfer wird – nur weil wir aus Angst vor hypothetischen Risiken auf reale Schutzmaßnahmen verzichten.
Widerlegung der Contra-Seite
(Zweiter Redner der Contra-Seite)
Verehrte Jury, liebe Zuhörer:innen,
die Pro-Seite malt ein idyllisches Bild – KI als sanfter Schutzengel, der uns vor Verbrechern bewahrt, ohne uns je zu berühren. Doch leider leben wir nicht in Estland – und auch nicht in einer Welt, in der Technologie sich brav an Gesetze hält, nur weil wir es wünschen.
Erstens: Der Londoner „Erfolgsfall“ ist ein Einzelfall, kein Beweis. Und selbst dort: Wer entscheidet, was „aggressives Verhalten“ ist? Ein Algorithmus, der auf Daten trainiert wurde, die hauptsächlich junge Männer mit Kapuzen zeigen? Objektivität ist eine Illusion, solange die Welt, aus der die Daten kommen, strukturell ungerecht ist. Und ja – selbst „anonymisierte“ Verhaltensanalyse führt zur Diskriminierung: Wer länger sitzt, wird als „obdachlos“ markiert; wer laut spricht, als „gefährlich“. Das ist keine Sicherheit – das ist soziale Selektion per Code.
Zweitens: Die Pro-Seite behauptet, demokratische Kontrolle sei ausreichend. Aber wer kontrolliert die Kontrolleure? In Deutschland wurden bereits KI-Systeme zur Videoanalyse eingekauft, ohne dass der Bundestag jemals informiert wurde. Und die DSGVO? Sie verbietet zwar die Speicherung von Gesichtern – aber was nützt das, wenn jedes Verhalten in Echtzeit klassifiziert und protokolliert wird? Sobald ein System weiß, dass Person X jeden Montag um 18 Uhr am Bahnhof steht und sich mit Person Y trifft, braucht es kein Gesicht mehr – es hat bereits ein Profil.
Drittens: Das Recht auf Sicherheit wird hier instrumentalisiert. Ja, Artikel 3 schützt das Leben – aber Artikel 12 der Allgemeinen Erklärung schützt ebenso das Recht auf Privatsphäre. Und der Europäische Gerichtshof hat klargestellt: Massenüberwachung ohne konkreten Verdacht verstößt gegen die Menschenwürde. Denn Würde bedeutet: Ich darf sein, ohne permanent rechtfertigen zu müssen, warum ich hier stehe, warum ich lache, warum ich bleibe.
Und viertens – der entscheidende Punkt: Die Pro-Seite redet von „freiwilligem Austausch“ von Anonymität gegen Sicherheit. Aber wo ist die Freiwilligkeit, wenn Kameras überall sind? Wenn der einzige Weg, nicht beobachtet zu werden, darin besteht, den öffentlichen Raum zu meiden? Dann wird Sicherheit nicht geteilt – sie wird erzwungen, und zwar vor allem von denen, die ohnehin Macht haben.
Wir sagen nicht, dass jede Technologie böse ist. Aber KI-gestützte Massenüberwachung im öffentlichen Raum ist strukturell unmöglich zu kontrollieren, sobald sie flächendeckend eingesetzt wird. Und eine Freiheit, die erst nach Genehmigung durch einen Algorithmus beginnt, ist keine Freiheit mehr – sie ist eine Lizenz.
Kreuzverhör
Fragen der Pro-Seite
Dritter Redner der Pro-Seite (an ersten Redner der Contra-Seite):
Sie sagten, KI-Überwachung töte die Demokratie, weil sie Menschen davon abhalte, zu protestieren. Aber wenn eine Frau abends auf dem Heimweg von einer Demonstration angegriffen wird – wer schützt ihre demokratische Freiheit? Ist Ihre Ablehnung so absolut, dass Sie lieber Gewalt dulden, als Technologie zuzulassen, die solche Angriffe verhindern könnte?
Erster Redner der Contra-Seite:
Natürlich wollen wir niemanden der Gewalt aussetzen. Aber Sicherheit darf nicht durch systematische Entmündigung erkauft werden. Es gibt andere Wege – mehr Polizeipräsenz, bessere Straßenbeleuchtung, soziale Programme. KI-Überwachung ist kein einziger Ausweg, sondern eine Sackgasse, die uns langfristig alle unfreier macht.
Dritter Redner der Pro-Seite (an zweiten Redner der Contra-Seite):
Sie kritisieren, dass KI-Algorithmen diskriminieren, weil sie auf voreingenommenen Daten trainiert sind. Warum fordern Sie dann nicht – wie wir – strengere Regeln für Trainingsdaten, Audits und Transparenz? Oder ist Ihr eigentliches Ziel, jede Form automatisierter Analyse zu verbieten, egal wie gerecht sie gestaltet wird?
Zweiter Redner der Contra-Seite:
Weil der Kern des Problems nicht in den Daten liegt, sondern in der Logik der Massenüberwachung selbst. Sobald Verhalten algorithmisch bewertet wird, entsteht eine Norm – und wer außerhalb steht, wird verdächtig. Selbst „perfekte“ Algorithmen würden uns zwingen, uns konform zu verhalten. Das ist keine Gerechtigkeit – das ist digitale Disziplinierung.
Dritter Redner der Pro-Seite (an dritten Redner der Contra-Seite):
Stellen Sie sich vor: In einem Stadtteil mit hoher Kriminalität stimmen 80 % der Anwohner:innen für KI-Kameras – besonders Frauen, ältere Menschen und Migranten, die oft Opfer werden. Nennen Sie deren Entscheidung „freiwillig“? Oder behaupten Sie, sie seien zu dumm, um ihre eigenen Interessen zu kennen?
Dritter Redner der Contra-Seite:
Niemand ist zu dumm – aber Not macht erfinderisch, nicht weise. Wenn Menschen zwischen Angst und Überwachung wählen müssen, ist das keine freie Wahl. Es ist wie die Entscheidung zwischen Pest und Cholera. Und wer die Kameras installiert, profitiert oft von dieser Angst – nicht von der Sicherheit.
Zusammenfassung des Kreuzverhörs der Pro-Seite
Die Contra-Seite hat heute eingeräumt: Sie wollen Gewaltopfer schützen – aber nur auf Wegen, die sie selbst für „rein“ halten. Sie lehnen technologische Lösungen nicht wegen ihrer Fehler ab, sondern trotz ihrer Verbesserbarkeit. Und sie erklären Bürger:innen, die Sicherheit wählen, zur Unmündigkeit – als hätten nur sie das Monopol auf ethisches Denken. Doch Ethik ohne Pragmatismus ist Moralismus. Und Moralismus rettet keine Leben.
Fragen der Contra-Seite
Dritte Rednerin der Contra-Seite (an ersten Redner der Pro-Seite):
Sie nannten London als Erfolgsbeispiel – doch der dortige Algorithmus löste in 98 % der Fälle Fehlalarme aus, meist bei jungen Männern mit dunkler Hautfarbe. Wenn Ihre „objektive“ KI so oft irrt – warum nennen Sie das dann Fortschritt und nicht institutionalisierte Paranoia?
Erster Redner der Pro-Seite:
Weil Fehlalarme messbar und korrigierbar sind – im Gegensatz zu menschlicher Willkür, die oft unbeobachtet bleibt. Jeder Fehlalarm wird dokumentiert, analysiert, verbessert. Das ist der Unterschied zwischen einem System, das lernen kann, und einem, das nur urteilt.
Dritte Rednerin der Contra-Seite (an zweiten Redner der Pro-Seite):
Sie behaupten, demokratische Institutionen könnten Missbrauch verhindern. Aber in Hamburg wurde ein KI-Videoanalyse-System 2022 ohne Zustimmung des Innenausschusses getestet – und erst enthüllt, nachdem Journalisten recherchierten. Wo war da die „demokratische Kontrolle“, auf die Sie so stolz sind?
Zweiter Redner der Pro-Seite:
Einzelne Versäumnisse rechtfertigen nicht die Abschaffung ganzer Technologien. Genau wie Korruption in der Politik nicht bedeutet, dass Demokratie falsch ist – sondern dass wir sie stärken müssen. Und das tun wir: mit Whistleblower-Schutz, Medienfreiheit und strengeren Genehmigungsverfahren. Ihre Beispiele zeigen nicht das Scheitern der Technik – sondern den Erfolg der Kontrolle, die sie erst aufgedeckt hat.
Dritte Rednerin der Contra-Seite (an dritten Redner der Pro-Seite):
Sie sagen, Bürger:innen könnten freiwillig Anonymität gegen Sicherheit tauschen. Aber wenn Kameras an jeder U-Bahn, jedem Park und jedem Marktplatz hängen – wo genau findet diese „freie Wahl“ statt? Im Keller? Oder nur in den Villen derer, die sich private Sicherheit leisten können?
Dritter Redner der Pro-Seite:
Der öffentliche Raum ist kein rechtsfreier Raum. Wir akzeptieren schon lange Regeln – Ampeln, Videoüberwachung an Bahnhöfen, Polizeipräsenz bei Großveranstaltungen. KI ist nur ein Werkzeug, das diese Regeln effizienter durchsetzt. Und nein – wer sich zurückzieht, weil er beobachtet wird, hat vielleicht etwas zu verbergen… oder er verwechselt Freiheit mit Anonymität. Doch Freiheit braucht Sicherheit – nicht Dunkelheit.
Zusammenfassung des Kreuzverhörs der Contra-Seite
Die Pro-Seite hat heute zugegeben: Ihre Systeme irren – oft und systematisch. Sie räumen ein, dass demokratische Kontrollen versagen – aber hoffen auf zukünftige Verbesserungen, während Menschen jetzt in Datenbanken landen. Und sie definieren Freiheit so eng, dass sie nur noch für die gilt, die nichts zu befürchten haben – nicht für die, die anders aussehen, anders sprechen, anders leben. Ihre Vision ist eine Welt, in der Sicherheit nur für diejenigen gilt, die sich dem Algorithmus anpassen. Doch eine Gesellschaft, die den Preis der Sicherheit in Freiheit bezahlt, hat bereits verloren – denn sie schützt nicht die Menschen, sondern das System.
Freie Debatte
Erster Redner der Pro-Seite:
Liebe Gegenseite – Sie reden viel von Freiheit. Aber lassen Sie mich fragen: Welche Freiheit hat eine Frau, die abends nicht joggen geht, weil sie Angst hat, angegriffen zu werden? Welche Freiheit hat ein Obdachloser, der im Park zusammengeschlagen wird, während Kameras ihn ignorieren – weil sie eben nicht installiert sind? Ihre Freiheit ist eine Luxusfreiheit für die, die ohnehin geschützt sind. Unsere Vision ist inklusiver: Sicherheit für alle – besonders für die, die sonst unsichtbar bleiben. Und ja, KI kann Fehler machen. Aber ein menschlicher Wachmann, der weggeschaut hat, macht auch Fehler – nur ohne Protokoll, ohne Korrekturmöglichkeit, ohne Lernfähigkeit. Unsere Technik ist nicht perfekt – aber sie ist besser als das Chaos, das Sie verteidigen.
Erste Rednerin der Contra-Seite:
Ah, die klassische Falle: Wer Sicherheit infrage stellt, wolle Gewalt. Nein! Wir wollen Sicherheit ohne Entmündigung. Aber sagen Sie mir ehrlich: Wenn überall Kameras hängen, die entscheiden, ob Ihr Stehenbleiben „verdächtig“ oder Ihr Lachen „aggressiv“ ist – wer definiert dann noch, was normal ist? Die Antwort: Eine Handvoll Tech-Firmen und Polizeibehörden, die historisch gesehen nie besonders sensibel für marginalisierte Gruppen waren. Und diese „freiwillige Zustimmung“, von der Sie schwärmen – ist die wirklich frei, wenn der einzige Ausweg aus der Überwachung darin besteht, den öffentlichen Raum zu meiden? Das ist keine Wahl – das ist digitale Vertreibung.
Zweiter Redner der Pro-Seite:
Interessant – Sie malen KI als unkontrollierbares Ungeheuer. Aber wissen Sie, was wirklich unkontrollierbar ist? Ein Messerangriff auf einen Schulhof. Oder ein Brandanschlag auf eine Synagoge. Während Sie über hypothetische Algorithmen grübeln, rettet KI heute schon Leben – etwa in Berlin, wo ein System einen Suizidversuch am U-Bahnsteig erkannte und Hilfe alarmierte, bevor der Zug einfuhr. Und ja, wir regulieren streng: Keine Gesichtserkennung, keine Speicherung, nur Verhaltensmuster in Echtzeit. Aber vielleicht liegt Ihr Problem tiefer: Sie trauen der Demokratie nicht zu, Technik zu zähmen. Wir tun es. Denn Fortschritt ohne Verantwortung ist gefährlich – aber Verzicht aus Angst ist ungerecht.
Zweite Rednerin der Contra-Seite:
Verantwortung? In Hamburg wurde letztes Jahr ein KI-System zur Videoanalyse eingeführt – ohne parlamentarische Debatte, ohne Bürgerbeteiligung, ohne Transparenzbericht. Wo war da die Demokratie? Und was nützt es, dass kein Gesicht gespeichert wird, wenn das System weiß, dass „Person mit rotem Rucksack jeden Dienstag um 19 Uhr vor der linken Buchhandlung steht“? Anonymität ist tot, sobald Verhalten zum Identifikator wird. Und übrigens: Die Stasi brauchte auch keine Gesichtserkennung – sie nutzte Verhaltensmuster, Beziehungsnetze, Routinen. Natürlich ist KI nicht die Stasi – aber sie normalisiert dieselbe Logik: Der Mensch als Risiko, das es zu managen gilt. Ist das wirklich die Gesellschaft, die wir wollen?
Dritter Redner der Pro-Seite:
Jetzt vergleichen Sie KI mit der Stasi? Das ist nicht nur geschmacklos – es ist logisch absurd. Die Stasi wollte Unterdrückung. Unsere Kameras wollen Schutz. Aber lassen Sie uns eine andere Analogie wagen: KI ist wie Feuer. Unkontrolliert verbrennt es Städte. Kontrolliert wärmt es Häuser, kocht Essen, treibt Zivilisation voran. Ihre Haltung ist, als würden Sie sagen: „Verbieten wir Feuer, weil jemand sich daran verbrennen könnte.“ Nein – wir bauen Herde, setzen Regeln, lehren Umgang. Genau das tun wir mit KI: Wir zähmen sie, damit sie dient – nicht herrscht.
Dritte Rednerin der Contra-Seite:
Feuer? Feuer fragt nicht, wer Sie sind. Feuer beobachtet Sie nicht, bewertet Sie nicht, speichert nicht, dass Sie dreimal am Tag an einer Dönerbude vorbeigehen. Und hier liegt der Unterschied: Feuer ist blind. KI ist neugierig. Und sobald Neugier institutionell wird, wird sie zur Macht. Was bleibt vom Menschsein, wenn jedes Verhalten optimiert, jedes Abweichen als Risiko markiert wird? Dann leben wir nicht in einer Stadt – sondern in einem Labor, in dem wir die Versuchskaninchen sind. Und glauben Sie mir: Die ersten, die aus dem Experiment aussortiert werden, sind nie die Reichen, die Mächtigen – sondern die, die ohnehin schon am Rand stehen.
Schlussrede
Schlussrede der Pro-Seite
Verehrte Jury, liebe Zuhörerinnen und Zuhörer,
seit Beginn dieser Debatte haben wir einen klaren Kompass: Sicherheit ist kein Gegner der Freiheit – sie ist ihr Fundament. Und genau darum geht es heute nicht um Technikgläubigkeit, sondern um Verantwortung gegenüber jenen, die am stärksten gefährdet sind – Frauen, die nachts heimgehen, Obdachlose, die in Parks zusammengeschlagen werden, Kinder, die auf dem Schulweg belästigt werden.
Die Gegenseite malt ein Bild, als sei jede Kamera ein Auge des Staates, das uns entmündigt. Doch wir reden nicht von allwissenden Algorithmen – wir reden von Werkzeugen, die wir gestalten können. Ja, Technik kann missbraucht werden. Aber das gilt auch für Straßenlaternen, für Polizeiuniformen, für Gesetze selbst. Sollen wir deshalb auf Licht, Schutz und Ordnung verzichten?
Nein. Denn wir haben gelernt: KI kann gerechter sein als der Mensch – wenn wir es wollen. Wir können Bias eliminieren, Transparenz erzwingen, Speicherung verbieten. In Hamburg wird aktuell ein System getestet, das keine Gesichter speichert, keine Identitäten erstellt – nur Verhalten analysiert: Liegt dort eine Tasche? Bewegt sich jemand aggressiv? Bleibt jemand reglos liegen? Das ist keine Überwachung – das ist digitale Fürsorge.
Und ja: Es gab Fehler. Aber während menschliche Vorurteile oft unausgesprochen und unkontrollierbar bleiben, können Algorithmen geprüft, korrigiert, verbessert werden. Ein fehlerhafter Code lässt sich patchen. Ein rassistisches Weltbild nicht.
Die Contra-Seite sagt: „Wer beobachtet wird, zieht sich zurück.“ Aber wer Angst hat, wird sich immer zurückziehen – egal ob Kameras da sind oder nicht. Der Unterschied ist: Mit KI-gestützter Präsenz verschwindet die Angst. Und damit kehrt das Leben in den öffentlichen Raum zurück.
Dies ist keine Debatte über Maschinen. Es ist eine Debatte darüber, welche Welt wir wollen: eine, in der Verletzlichkeit ignoriert wird – oder eine, in der wir technologisch dafür sorgen, dass niemand allein gelassen wird.
Daher sind wir fest davon überzeugt: Solange KI transparent, reguliert und dem Gemeinwohl verpflichtet ist, ist ihre Nutzung im öffentlichen Raum nicht nur ethisch vertretbar – sie ist ethisch geboten.
Denn wer das Recht auf Sicherheit leugnet, vergisst: Ohne Sicherheit gibt es keine Freiheit – nur Angst.
Schlussrede der Contra-Seite
Meine Damen und Herren,
die Pro-Seite spricht von „digitaler Fürsorge“. Aber Fürsorge beginnt nicht mit Beobachtung – sie beginnt mit Vertrauen. Und Vertrauen braucht Räume, in denen man nicht bewertet wird, bevor man etwas getan hat.
Seit Beginn dieser Debatte haben wir gezeigt: KI-gestützte Massenüberwachung ist kein neutrales Werkzeug. Sie ist ein System der vorausschauenden Verdächtigung. Wer länger sitzt, wer anders aussieht, wer lauter lacht – wird zum Risiko erklärt. Nicht weil er etwas getan hat, sondern weil er aus dem Algorithmus fällt.
Die Gegenseite sagt: „Wir speichern keine Gesichter.“ Aber was nützt das, wenn Ihr System weiß, dass Person X jeden Montag am Bahnhof steht, sich mit Y trifft, danach in Richtung Park geht – und plötzlich als „auffällig“ markiert wird, weil sie heute sitzen bleibt? Anonymität ist tot, sobald Verhalten zu Identität wird.
Und nein – Demokratie schützt uns nicht automatisch. In Hamburg wurde ein KI-System installiert, ohne Bürgerbeteiligung, ohne parlamentarische Debatte. Wo war da die „demokratische Legitimation“? Wo ist sie, wenn Polizeibehörden Algorithmen einkaufen, deren Quellcode geheim ist?
Die Pro-Seite ruft: „Sicherheit ist ein Menschenrecht!“ – und ignoriert dabei Artikel 12 der Allgemeinen Erklärung: „Niemand darf willkürlichen Eingriffen in sein Privatleben unterworfen werden.“ Der öffentliche Raum ist kein Sicherheitslabor – er ist der Ort, an dem Freiheit gelebt wird. Und Freiheit heißt: Ich darf sein, ohne erklären zu müssen, warum.
Ja, wir wollen Sicherheit. Aber nicht um den Preis, dass der Mensch zum Datenpunkt degradiert wird. Nicht um den Preis, dass Protest verstummt, weil Kameras lächeln. Nicht um den Preis, dass wir uns erst dann frei fühlen, wenn wir uns angepasst haben.
Denn eine Gesellschaft, die Sicherheit durch permanente Beobachtung erkauft, hat bereits verloren – nicht ihre Freiheit, sondern ihre Seele.
Daher sagen wir mit aller Deutlichkeit: KI-gestützte Massenüberwachung im öffentlichen Raum ist ethisch nicht vertretbar – nicht weil die Technik böse ist, sondern weil sie uns zwingt, uns selbst zu überwachen.
Und wer sich selbst überwacht, ist nicht frei – er ist schon gefangen.