Ist die automatische Gesichtserkennung zur Altersschätzung in Online-Shops zulässig?
Eröffnungsrede (These)
Eröffnungsrede der Pro-Seite
Meine Damen und Herren, verehrte Jury, liebe Kontrahenten:
Ja, die automatische Gesichtserkennung zur Altersschätzung in Online-Shops ist nicht nur zulässig – sie ist notwendig, um den digitalen Raum jugendschutzkonform zu gestalten.
Doch was meinen wir überhaupt mit „automatischer Altersschätzung“? Es geht hier nicht um die Speicherung Ihres Porträts oder die Identifizierung Ihrer Person. Es geht um einen Moment – ein flüchtiges Scannen des Gesichts, das allein die Frage beantwortet: „Ist diese Person vermutlich über 18?“ Danach wird das Bild gelöscht. Keine Datensammlung, kein Profiling – nur ein Schutzschild gegen Missbrauch.
Warum vertreten wir diese Position? Aus drei Gründen:
Erstens: Effektiver Jugendschutz im digitalen Zeitalter.
Online-Shops verkaufen Alkohol, E-Zigaretten, Erotikartikel – Produkte, deren Konsum gesetzlich an ein Mindestalter gebunden ist. Doch wie prüfen wir das online? Durch eine Checkbox mit „Ich bin volljährig“? Das ist kein Schutz, das ist Theater. Die Gesichtserkennung hingegen bietet eine objektive, schwer zu täuschende Barriere – vergleichbar mit dem Ausweis vor der Supermarktkasse, nur digitalisiert.
Zweitens: Technologie kann datenschonend sein – wenn wir sie richtig gestalten.
Moderne Altersschätzungs-Systeme arbeiten lokal auf dem Endgerät, speichern nichts in der Cloud und übermitteln lediglich eine anonymisierte Antwort: „Alter geschätzt: 25±3 Jahre“. Das ist kein Big-Brother-Szenario – das ist Smart Regulation. Und ja, das ist mit der DSGVO vereinbar, solange Nutzer:innen transparent informiert und aktiv einwilligen.
Drittens: Wir brauchen pragmatische Lösungen – nicht ideologische Blockaden.
Die Alternative? Entweder verzichten Händler auf sensible Produkte – was wirtschaftlichen Schaden bedeutet – oder sie riskieren rechtliche Konsequenzen durch unzureichenden Altersnachweis. Warum also nicht eine Technologie nutzen, die genau dieses Dilemma löst – ohne physische Dokumente, ohne Wartezeiten, ohne Barrieren für erwachsene Kund:innen?
Und schließlich: Diese Technologie schützt nicht nur Kinder – sie bewahrt auch Erwachsene davor, versehentlich in illegale Situationen zu geraten. Denn wer möchte schon ahnungslos gegen das Jugendschutzgesetz verstoßen?
Wir sagen: Nutzen wir Innovation zum Schutz der Schwächsten – nicht aus Angst, sondern mit Verantwortung.
Eröffnungsrede der Contra-Seite
Meine sehr verehrten Damen und Herren,
nein – die automatische Gesichtserkennung zur Altersschätzung in Online-Shops ist nicht zulässig. Nicht weil wir Technikfeindlichkeit predigen, sondern weil wir Freiheit, Gerechtigkeit und menschliche Würde höher stellen als scheinbare Bequemlichkeit.
Was hier als „Altersschätzung“ verkauft wird, ist in Wahrheit der Einstieg in eine Ära der biometrischen Normalisierung. Jedes Gesicht wird zum Passwort, jeder Blick zur Überwachungseinheit. Doch lassen Sie uns klarstellen: Biometrische Daten sind keine gewöhnlichen Informationen. Sie sind Teil unserer Identität – unwiderruflich, unveränderlich, besonders schützenswert. Artikel 9 der DSGVO sagt das ausdrücklich: Die Verarbeitung biometrischer Daten ist grundsätzlich verboten, es sei denn, es liegt eine ausdrückliche, informierte Einwilligung vor – und selbst dann nur unter strengen Auflagen.
Warum lehnen wir diese Praxis ab? Aus vier entscheidenden Gründen:
Erstens: Die Technik ist unzuverlässig – und diskriminiert systematisch.
Studien zeigen: Altersschätzungs-Algorithmen irren sich regelmäßig – besonders bei dunkelhäutigen Menschen, älteren Personen und Frauen. Eine 40-jährige Schwarze Frau wird oft als „minderjährig“ klassifiziert, während ein 16-jähriger weißer Junge als „volljährig“ durchrutscht. Ist das Gerechtigkeit? Nein – das ist algorithmische Ungleichbehandlung mit realen Konsequenzen.
Zweitens: Es droht ein Dammbruch für unsere Privatsphäre.
Heute ist es Altersschätzung beim Online-Shop, morgen ist es Stimmungsanalyse beim Jobinterview, übermorgen Bewegungsprofil beim Spaziergang. Sobald wir akzeptieren, dass unser Gesicht zur ständigen Prüfungsressource wird, geben wir die Kontrolle über unseren Körper preis. Und wer kontrolliert dann die Kontrolleure?
Drittens: Es gibt bessere, weniger invasive Alternativen.
Warum nicht einfach eine Ausweiskopie hochladen – mit anschließender manueller, datenschutzkonformer Prüfung? Oder Zahlung per Rechnung, bei der der Altersnachweis erst nach Bestellung erfolgt? Diese Methoden sind zwar etwas langsamer – aber sie respektieren die Grenze zwischen Schutz und Überwachung.
Viertens: Freiwilligkeit ist eine Illusion im digitalen Zwangskontext.
„Sie können ja ablehnen!“, hören wir oft. Doch wenn die Alternative darin besteht, keinen Wein, kein E-Book mit Altersfreigabe oder keine bestimmte Software zu kaufen – ist das keine Wahl, sondern digitale Erpressung.
Wir verteidigen nicht die Unmöglichkeit des Jugendschutzes – wir verteidigen das Recht, ihn ohne biometrische Demütigung zu gewährleisten. Denn eine Gesellschaft, die ihre Bürger:innen scannen muss, um ihnen zu vertrauen, hat bereits verloren.
Widerlegung der Eröffnungsrede
Widerlegung der Pro-Seite
Meine Damen und Herren, verehrte Jury –
die Contra-Seite hat uns ein düsteres Bild gemalt: eine Welt, in der jedes Gesicht zum Überwachungsobjekt wird, Algorithmen rassistisch urteilen und digitale Zwänge unsere Freiheit ersticken. Das klingt dramatisch – und emotional berührend. Doch leider bricht ihre Argumentation bereits an ihren eigenen Prämissen.
Erstens: Die Behauptung, Altersschätzungs-Algorithmen seien systematisch diskriminierend, ignoriert den technischen Fortschritt.
Ja, frühe Systeme zeigten Bias – das ist bekannt. Doch heute trainieren Entwickler Modelle mit diversen Datensätzen und validieren sie nach ISO/IEC-Standards. Die EU selbst fördert solche „fair-by-design“-Systeme im Rahmen des AI Act. Und entscheidend: Wir reden hier nicht von Identifikation, sondern von Altersschätzung – einem viel gröberen, toleranteren Verfahren. Es geht nicht darum, ob jemand 38 oder 42 ist, sondern ob er offensichtlich minderjährig wirkt. Bei Erwachsenen mit jugendlichem Aussehen gibt es zudem immer manuelle Nachprüfungen. Die Contra-Seite verwechselt also bewusst Unsicherheit mit Ungerechtigkeit.
Zweitens: Der „Dammbruch“-Vorwurf ist eine klassische Slippery-Slope-Falle.
Heute Alterscheck – morgen Gedankenkontrolle? So funktioniert Recht nicht. Die DSGVO erlaubt biometrische Verarbeitung ausdrücklich, wenn sie notwendig ist, um gesetzliche Pflichten zu erfüllen – wie etwa den Jugendschutz nach §10 JuSchG. Und nein, das öffnet keine Hintertür für Stimmungsanalyse beim Vorstellungsgespräch. Warum? Weil jede neue Anwendung einzeln geprüft werden muss – auf Verhältnismäßigkeit, Notwendigkeit und Zweckbindung. Die Contra-Seite malt ein Horrorszenario, als gäbe es keine Datenschutzbehörden, keine Gerichte, keine demokratischen Kontrollmechanismen. Das ist nicht Vorsicht – das ist Paranoia.
Drittens: Ihre „besseren Alternativen“ sind entweder ineffizient oder genauso invasiv.
Eine Ausweiskopie hochladen? Dann speichert der Händler Ihr Geburtsdatum, Ihren Namen, Ihre Adresse – echte personenbezogene Daten, nicht nur eine anonymisierte Altersspanne! Und manuelle Prüfung bedeutet: Fremde schauen Ihr Dokument an – wann war das jemals datenschonender? Rechnungskauf? Funktioniert nicht bei digitalen Gütern wie E-Books oder Streaming-Zugängen. Die Contra-Seite bietet also entweder mehr Datensammlung oder keinen Schutz – und nennt das „respektvoll“?
Und viertens: Die „Illusion der Freiwilligkeit“?
Natürlich kann man ablehnen – so wie man ablehnen kann, am Flughafen gescannt zu werden. Aber niemand zwingt Sie, Alkohol online zu kaufen. Wenn Sie ein Produkt erwerben wollen, das gesetzlich Altersbeschränkungen unterliegt, dann gehört der Nachweis dazu – genauso wie im Laden. Die Contra-Seite suggeriert, der Online-Shop sei ein rechtsfreier Raum, in dem Kunden willkürlich biometrisch geprüft werden. Doch in Wahrheit: Ohne Altersnachweis darf der Händler gar nicht liefern. Die Technologie ermöglicht erst, dass der Handel legal stattfinden kann.
Kurz gesagt: Die Contra-Seite verteidigt nicht die Freiheit – sie verteidigt das Recht, Jugendschutzgesetze zu umgehen, solange es bequem ist.
Widerlegung der Contra-Seite
Sehr geehrte Anwesende,
die Pro-Seite präsentiert uns eine heile Welt: eine Technologie, die „nur einen Moment scannt“, „nichts speichert“ und „wie ein Ausweis vor der Kasse“ funktioniert. Schön – wenn es wahr wäre. Doch leider lebt diese Darstellung von drei gefährlichen Illusionen.
Erste Illusion: „Lokale Verarbeitung = kein Risiko“.
Die Pro-Seite behauptet, das Gesichtsbild bleibe auf dem Endgerät. Doch wer garantiert das? Die App, die Sie installieren, könnte heimlich Daten an Server senden – und Nutzer:innen haben keine Möglichkeit, das zu prüfen. Selbst bei Open-Source-Software: Sobald Updates kommen, kann sich das Verhalten ändern. Und was passiert bei einem Hackerangriff auf den Shop? Plötzlich liegen Millionen biometrischer Templates in den Händen von Kriminellen. Biometrische Daten lassen sich nicht zurücksetzen wie ein Passwort. Einmal kompromittiert – für immer verwundbar. Die Pro-Seite redet von „Smart Regulation“, aber Regulierung ohne Durchsetzung ist nur Theater.
Zweite Illusion: „Einwilligung = Freiheit“.
„Transparent informiert und aktiv eingewilligt“ – so schön, so falsch. Studien zeigen: Über 90 % der Nutzer:innen klicken „Akzeptieren“, ohne die Datenschutzerklärung zu lesen. Und warum? Weil die Alternative Ausschluss ist. Kein Wein, kein Ticket, kein Zugang. Das ist keine Wahl – das ist digitale Erpressung mit freundlichem Design. Die DSGVO verlangt, dass Einwilligung „freiwillig“ sein muss. Doch wenn der Zugang zu alltäglichen Gütern davon abhängt, opfert man nicht Bequemlichkeit – man opfert Autonomie.
Dritte Illusion: „Objektivität durch Technik“.
Die Pro-Seite nennt Gesichtserkennung „objektiv“ – als wäre ein Algorithmus neutraler als ein Mensch. Doch Algorithmen lernen aus Daten, und diese Daten spiegeln gesellschaftliche Vorurteile wider. Eine NIST-Studie von 2019 zeigte: Selbst moderne Systeme irren sich bei dunkelhäutigen Frauen bis zu 10-mal häufiger als bei hellhäutigen Männern. Das bedeutet: Eine Schwarze Frau wird möglicherweise systematisch vom Kauf ausgeschlossen, während ein weißer Teenager problemlos E-Zigaretten bestellt. Ist das „effektiver Jugendschutz“ – oder institutionalisierte Diskriminierung mit mathematischem Mantel?
Und schließlich: Warum muss es überhaupt biometrisch sein?
Die Pro-Seite sagt, Checkboxen seien „Theater“. Aber warum nicht verifizierte digitale Identitäten – wie den EU-eIDAS-Ausweis? Damit könnte man Alter ohne Gesichtsscan nachweisen, sicher und standardisiert. Stattdessen setzen wir auf proprietäre Black-Box-Systeme, deren Logik niemand durchschaut. Das ist keine Innovation – das ist Kapitulation vor kommerziellen Interessen.
Die Pro-Seite will uns glauben machen, wir müssten zwischen Jugendschutz oder Privatsphäre wählen. Doch das ist eine falsche Dichotomie. Wir können beides – wenn wir Technik nicht als Allheilmittel, sondern als letztes Mittel behandeln. Und solange es weniger invasive, gerechtere und transparentere Alternativen gibt, ist die automatische Gesichtserkennung nicht nur unzulässig – sie ist unnötig.
Kreuzverhör
Fragen der Pro-Seite
Dritter Redner der Pro-Seite (an ersten Redner der Contra-Seite):
Sie behaupten, biometrische Altersschätzung sei diskriminierend – doch moderne Systeme werden heute auf Fairness getestet und validiert. Wenn Ihr Hauptargument gegen die Technik lautet, dass sie früher Fehler machte, gestehen Sie dann ein, dass Sie gegen eine veraltete Karikatur der Technik argumentieren – nicht gegen ihren heutigen Stand?
Erster Redner der Contra-Seite:
Wir leugnen nicht, dass sich Algorithmen verbessern. Aber „verbessert“ heißt nicht „gerecht“. Selbst bei 95 % Genauigkeit bleibt ein systematischer Fehler bei marginalisierten Gruppen – und dieser Fehler hat reale Konsequenzen: Ausschluss vom Kauf, Demütigung, Misstrauen. Solange Biometrie nicht für alle gleich zuverlässig ist, darf sie nicht zur Zugangskontrolle dienen.
Dritter Redner der Pro-Seite (an zweiten Redner der Contra-Seite):
Sie preisen manuelle Ausweiskontrollen als Alternative – doch dabei wird das gesamte Dokument gescannt, inklusive Name, Adresse und Geburtsdatum. Ist es nicht paradox, ein Verfahren abzulehnen, das nur das Alter schätzt und keine personenbezogenen Daten speichert, während Sie eines befürworten, das alle sensiblen Daten erfasst?
Zweiter Redner der Contra-Seite:
Nein, denn beim Ausweis entscheiden Menschen über den Zugang – nicht intransparente Algorithmen. Und ja, dort fallen mehr Daten an – aber unter strenger Zweckbindung, mit Löschfristen und Aufsicht. Bei automatischer Gesichtserkennung wissen wir oft nicht einmal, wer den Algorithmus trainiert hat oder ob das Bild wirklich gelöscht wird. Mehr Daten ≠ mehr Risiko, wenn Kontrolle existiert. Weniger Daten ≠ weniger Gefahr, wenn Kontrolle fehlt.
Dritter Redner der Pro-Seite (an vierten Redner der Contra-Seite):
Sie sagen, Nutzer:innen hätten keine echte Wahl, weil sie andernfalls keinen Zugang hätten. Doch im Supermarkt muss ich auch meinen Ausweis zeigen, um Alkohol zu kaufen – niemand nennt das Erpressung. Warum gilt plötzlich im Digitalen ein anderer Maßstab für das, was als „freiwillig“ gilt?
Vierter Redner der Contra-Seite:
Weil der Supermarkt ein physischer Raum mit klaren Grenzen ist – online hingegen verschwimmen die Räume. Wenn morgen jede Streaming-Plattform, jeder E-Book-Shop und jede Apotheke Gesichtserkennung verlangt, wird das Gesicht zum universellen Schlüssel. Dann ist die „Wahl“, nicht zu scannen, gleichbedeutend mit digitalem Ausschluss. Das ist kein Konsumentenschutz – das ist biometrische Pflichtmitgliedschaft.
Zusammenfassung des Kreuzverhörs der Pro-Seite
Die Contra-Seite räumt ein, dass Technik fortschreitet – weigert sich aber, diesen Fortschritt anzuerkennen, solange absolute Perfektion fehlt. Sie verteidigt manuelle Verfahren, obwohl diese objektiv mehr Daten erfassen, und zieht eine künstliche Trennlinie zwischen analogem und digitalem Zwang, obwohl das Prinzip identisch ist: Wer Altersbeschränktes konsumieren will, muss sein Alter nachweisen. Ihre Angst vor einem „Dammbruch“ beruht nicht auf Fakten, sondern auf Spekulation – während unsere Lösung heute Schutz bietet, ohne Identität preiszugeben.
Fragen der Contra-Seite
Dritte Rednerin der Contra-Seite (an ersten Redner der Pro-Seite):
Sie betonen, dass das Gesichtsbild „sofort gelöscht“ wird. Doch wie können Sie das garantieren, wenn der Code proprietär ist und die Verarbeitung oft in der Cloud stattfindet? Gestehen Sie zu, dass „lokale Verarbeitung“ oft nur Marketing ist – und dass Nutzer:innen keinerlei Kontrolle darüber haben, was wirklich mit ihrem biometrischen Abbild geschieht?
Erster Redner der Pro-Seite:
Wir fordern nicht blindes Vertrauen, sondern regulatorische Auflagen: Open-Source-Validierung, Zertifizierung durch unabhängige Stellen und echte DSGVO-Durchsetzung. Ja, Missbrauch ist möglich – aber das gilt für jede Technik. Sollen wir Autos verbieten, weil jemand Gas geben könnte? Nein – wir bauen Sicherheitsgurte. Und hier ist der „Gurt“ die klare gesetzliche Rahmung.
Dritte Rednerin der Contra-Seite (an zweiten Redner der Pro-Seite):
Sie nennen Gesichtserkennung „pragmatisch“. Aber wenn eine 38-jährige dunkelhäutige Frau systematisch als minderjährig eingestuft wird und deshalb keinen Zugang zu Medikamenten oder Finanzdienstleistungen erhält – ist das dann Pragmatismus oder institutionalisierte Ungleichheit?
Zweiter Redner der Pro-Seite:
Das wäre inakzeptabel – und genau deshalb setzen wir uns für kontinuierliche Bias-Audits und Haftungsregeln ein. Aber lassen Sie uns ehrlich sein: Auch menschliche Prüfer diskriminieren – bewusst oder unbewusst. Der Vorteil der Technik? Sie ist messbar, korrigierbar und skalierbar. Wir dürfen nicht das Ideal des Menschen gegen die Unvollkommenheit der Maschine ausspielen, sondern müssen beide verbessern.
Dritte Rednerin der Contra-Seite (an vierten Redner der Pro-Seite):
Die EU arbeitet gerade an der eIDAS-2-Verordnung – einer digitalen Identität, mit der Bürger:innen sicher und standardisiert ihr Alter nachweisen können, ohne Gesichtserkennung. Wenn diese Lösung bald flächendeckend verfügbar ist: Warum drängen Sie dann auf eine riskante, biometrische Notlösung, die überflüssig wird, bevor sie etabliert ist?
Vierter Redner der Pro-Seite:
Weil eIDAS heute noch nicht funktioniert – und Millionen Online-Shops jetzt handeln müssen. Sollen wir Jahre warten, während Kinder Zugang zu E-Zigaretten erhalten? Technologie entwickelt sich parallel. Warum nicht beides nutzen: kurzfristig datenschonende Altersschätzung, langfristig eIDAS? Ihre Haltung wirkt, als wollten Sie lieber gar keinen Schutz, als einen unvollkommenen.
Zusammenfassung des Kreuzverhörs der Contra-Seite
Die Pro-Seite versucht, Risiken mit Zukunftsvisionen zu übertünchen: „Später wird alles besser“, „Regulierung kommt schon“, „Alternativen brauchen Zeit“. Doch Datenschutz und Gleichbehandlung sind keine Optionen für morgen – sie sind Grundrechte heute. Sie räumen ein, dass Bias existiert, und dass Kontrolle schwerfällt – und rechtfertigen dies mit dem Druck des Marktes. Doch Not macht nicht edel; sie macht gefährlich. Und wenn eine gerechte, standardisierte Alternative wie eIDAS bereits am Horizont steht, ist der Einsatz biometrischer Massenverfahren nicht Pragmatismus – sondern technologischer Aktionismus auf Kosten der Schwächsten.
Freie Debatte
Pro-Redner 1:
Die Gegenseite malt ein dystopisches Bild – doch was passiert in Wirklichkeit? Ein Nutzer öffnet einen Shop, scannt sein Gesicht für zwei Sekunden, erhält Zugang – und das Bild wird gelöscht. Keine Speicherung, keine Profilbildung. Warum also so tun, als ginge es hier um Massenüberwachung? Das ist wie beim Supermarkt: Niemand fühlt sich gedemütigt, wenn der Kassierer den Ausweis prüft. Warum sollte Digitalisierung automatisch Demütigung bedeuten?
Contra-Redner 1:
Weil im Supermarkt kein Algorithmus entscheidet, ob Sie würdig sind! Und weil der Kassierer Sie nicht fälschlich als Kind abstempelt, nur weil Ihre Hautfarbe nicht im Trainingsdatensatz war. Die Pro-Seite redet von „zwei Sekunden“ – aber für wen? Für eine weiße Frau mag es flink sein. Für eine dunkelhäutige Mutter, die ständig als minderjährig eingestuft wird, ist es digitale Ausgangssperre. Technik ist nie neutral – sie spiegelt die Vorurteile ihrer Schöpfer.
Pro-Redner 2:
Aha – also soll Innovation stillstehen, bis alle Algorithmen perfekt sind? Dann hätten wir heute weder Antibiotika noch Sicherheitsgurte! Tatsache ist: Moderne Altersschätzungsmodelle werden auf Fairness getestet – mit diversen Datensätzen, unter Aufsicht. Und ja, sie sind nicht hundertprozentig – aber sie sind besser als eine Checkbox oder ein manueller Ausweiskopie-Upload, bei dem alle Ihre Daten gespeichert werden! Wer will denn wirklich, dass Händler Kopien Ihres Personalausweises lagern?
Contra-Redner 2:
Perfektion ist nicht das Ziel – Gerechtigkeit schon. Und nein, wir fordern nicht Stillstand, sondern Verhältnismäßigkeit. Warum nutzen wir nicht die EU-weite eIDAS-2-Lösung, die gerade kommt? Mit digitaler Identität, verschlüsselt, nutzerkontrolliert – ohne Ihr Gesicht zu scannen? Stattdessen drängt die Pro-Seite auf eine biometrische Mautstelle für den Online-Handel. Und nennt das „Jugendschutz“. Aber wer kontrolliert, dass morgen nicht plötzlich auch Ihr „Vertrauensscore“ geprüft wird? Heute Alter, morgen Charakter – wo ziehen Sie die Linie?
Pro-Redner 1:
Die Linie zieht das Gesetz – nicht unsere Angst! §10 JuSchG verpflichtet Händler, Altersverifikation zu gewährleisten. Wenn eIDAS-2 kommt, großartig – bis dahin brauchen wir funktionierende Lösungen jetzt. Und nein, niemand schlägt vor, Ihren Charakter zu scannen. Das ist eine klassische Slippery-Slope-Falle: Weil etwas missbraucht werden könnte, darf es nie genutzt werden. Nach dieser Logik dürften wir auch keine Autos mehr fahren – schließlich kann man damit auch über Rot fahren!
Contra-Redner 1:
Doch, wir dürfen Autos fahren – aber mit Führerschein, Versicherung und Ampeln. Genau das fehlt hier: Regulierung vor Einführung, nicht PR-Versprechen danach. Und solange Anbieter ihre Algorithmen als Geschäftsgeheimnis hüten, bleibt „Fairness“ ein Marketingbegriff. Übrigens: Selbst bei 95 % Genauigkeit bedeutet das, dass 1 von 20 Menschen fälschlich ausgeschlossen wird. In Deutschland sind das jährlich Hunderttausende – meist Frauen, Ältere, People of Color. Ist das der Preis für Ihre „pragmatische Lösung“?
Pro-Redner 2:
Und wie viele Kinder kaufen heute legal Alkohol online, weil die „pragmatische Alternative“ eine angeklickte Checkbox ist? Null Prozent Schutz versus 95 % Schutz – welches Risiko ist schwerwiegender? Wir reden nicht über Komfort, sondern über gesetzlichen Schutz von Minderjährigen. Ja, Technik ist unvollkommen – aber Untätigkeit ist moralisch unvertretbar. Oder wollen Sie erst handeln, wenn der erste Teenager an einer illegal bestellten E-Zigarette stirbt?
Contra-Redner 2:
Niemand will Untätigkeit – aber falsche Lösungen sind schlimmer als gar keine. Denn sie suggerieren Sicherheit, wo keine ist. Und sie normalisieren, dass unser Körper zum Schlüssel für den digitalen Raum wird. Stellen Sie sich vor: Bald brauchen Sie Gesichtserkennung, um ein Buch zu kaufen, ein Ticket zu buchen, eine Bewerbung abzuschicken. Wer dann kein „vertrauenswürdiges Gesicht“ hat, ist einfach draußen. Das ist kein Fortschritt – das ist biometrischer Gatekeeping. Und das nennen Sie „mit Verantwortung“?
Pro-Redner 1:
Gatekeeping? Nein – Schutz! Und übrigens: Wer kein Smartphone hat, kann auch heute nicht online shoppen. Digitaler Ausschluss beginnt nicht bei der Gesichtserkennung, sondern bei der Infrastruktur. Aber solange wir im Digitalen leben, müssen wir seine Regeln gestalten – nicht ignorieren. Und wenn die Contra-Seite so viel Vertrauen in eIDAS hat – warum warten wir dann nicht fünf Jahre, bis es flächendeckend läuft? Bis dahin sollen Händler weiter gegen das Gesetz verstoßen?
Contra-Redner 1:
Weil Rechtskonformität nicht bedeuten darf, dass wir Grundrechte opfern! Es gibt Zwischenlösungen: Altersverifikation per Bankdaten, Video-Ident mit menschlicher Prüfung, Rechnungskauf. Alles langsamer – ja. Aber gerechter, transparenter und diskriminierungsfreier. Die Pro-Seite stellt uns vor eine falsche Wahl: entweder totaler Jugendschutz oder totaler Datenschutz. Aber warum nicht beides? Nur eben nicht mit einer Technik, die strukturelle Ungleichheit kodiert.
Pro-Redner 2:
Weil die Welt nicht wartet! Während wir über perfekte Systeme debattieren, bestellen Minderjährige heute Alkohol mit einem Klick. Und wissen Sie, was die größte Diskriminierung ist? Dass arme Familien oft weniger Zugang zu Aufklärung haben – und ihre Kinder deshalb besonders gefährdet sind. Gerade für sie brauchen wir einen robusten, automatisierten Schutz. Nicht Luxus-Lösungen für Technik-Eliten, sondern Schutz für alle – jetzt.
Contra-Redner 2:
Und genau das ist das Paradoxe: Die Pro-Seite will die Schwachen schützen – trifft aber dieselben Schwachen mit fehlerhaften Algorithmen. Schutz darf nicht zur Strafe werden. Solange die Technik nicht für alle gleichermaßen funktioniert, ist sie kein Schutz – sondern Selektion. Und eine Gesellschaft, die sagt: „Dein Gesicht sieht nicht volljährig genug aus – du darfst nicht eintreten“, hat ihren humanistischen Anspruch bereits aufgegeben.
Schlussrede
Schlussrede der Pro-Seite
Meine Damen und Herren, verehrte Jury,
seit Beginn dieser Debatte haben wir einen klaren Kompass: Wie schützen wir Kinder im digitalen Raum – ohne Erwachsene zu bestrafen oder Innovation zu ersticken? Unsere Antwort war und bleibt: durch eine intelligente, datenschonende, und ja – notwendige Nutzung der automatischen Altersschätzung.
Die Kontraseite hat uns vorgeworfen, wir würden Risiken ignorieren. Doch das Gegenteil ist wahr: Wir erkennen die Herausforderungen – und lösen sie.
Während sie von „Bias“ sprechen, als sei die Technik eingefroren im Jahr 2018, arbeiten moderne Algorithmen heute mit validierten Datensätzen, kontinuierlicher Fairness-Prüfung und transparenten Zertifizierungsstandards. Die Fehlerquote sinkt – und vor allem: sie wird messbar gemacht, korrigiert, verbessert. Das ist nicht Blindvertrauen in Maschinen. Das ist Verantwortung durch Regulierung.
Und was ist mit den Alternativen, die die Kontraseite so gern beschwört? Die Ausweiskopie? Damit übermitteln Nutzer:innen Name, Adresse, Geburtsdatum – alles! Unsere Methode hingegen fragt nur: „Sind Sie alt genug?“ – und vergisst Ihr Gesicht sofort danach. Wer hier von „Invasivität“ spricht, verwechselt das Werkzeug mit dem Problem.
Ja, es gibt die eIDAS-2-Identität. Aber sie ist noch nicht flächendeckend verfügbar – und wird es in vielen Ländern erst in Jahren sein. Sollen wir bis dahin weiterhin mit einer Checkbox gegen Alkohol- und Erotikbestellungen vorgehen? Soll der Jugendschutz auf ewig im digitalen Niemandsland verharren, weil wir auf die perfekte Lösung warten?
Die Kontraseite sagt: „Nicht jede Lösung ist gut, nur weil sie funktioniert.“
Wir sagen: Nicht jeder Verzicht ist ethisch, nur weil er sich sicher anfühlt. Denn wer heute den Schutz von Kindern aufschiebt, opfert morgen reale Opfer auf dem Altar des ideologischen Purismus.
Wir wollen keine Überwachungsgesellschaft. Wir wollen eine Schutzgesellschaft – eine, in der Technologie nicht gefürchtet, sondern geformt wird. Wo Innovation nicht zum Feind der Freiheit wird, sondern zu ihrem Verbündeten.
Daher sind wir fest davon überzeugt: Die automatische Altersschätzung ist nicht nur zulässig – sie ist unsere Pflicht.
Schlussrede der Contra-Seite
Verehrte Jury, liebe Mitdebattierende,
diese Debatte war nie eine Frage der Technik. Sie war eine Frage der Menschenwürde.
Die Pro-Seite malt ein Bild von sauberen Algorithmen, lokalen Berechnungen und freiwilliger Zustimmung. Doch die Realität sieht anders aus:
Biometrische Systeme – selbst wenn sie „nur“ das Alter schätzen – beruhen auf Mustern, die aus historischen, oft rassistischen Datensätzen gelernt wurden. Und nein: Eine 95-prozentige Genauigkeit tröstet niemanden, der abgewiesen wird, weil sein Gesicht „zu jung“ aussieht – nur weil er schwarz ist, weiblich, alt oder einfach „anders“.
Die Pro-Seite sagt: „Es geht nur um einen Moment.“
Aber dieser Moment ist der Beginn einer Normalisierung. Heute scannen wir Gesichter beim Wein-Kauf – morgen beim Zugang zu Bildung, Gesundheit, politischer Teilhabe. Und sobald das Gesicht zur universellen Legitimationsquelle wird, wird der Körper zur Schnittstelle des Staates – und der Markt entscheidet, wer dazugehört.
Sie behaupten, ihre Methode sei datenschonender als ein Ausweis. Doch das ist eine falsche Dichotomie. Warum nicht Video-Ident mit menschlicher Prüfung? Warum nicht die bald verfügbare eIDAS-2, die europaweit standardisiert, sicher und ohne Gesichtserkennung funktioniert? Weil sie langsamer ist? Weil sie weniger „glatt“ ist? Seit wann ist Bequemlichkeit das Maß aller Dinge?
Und was ist mit der „Freiwilligkeit“? Wenn die Alternative darin besteht, auf grundlegende Güter zu verzichten – auf Medikamente, Bücher, Dienstleistungen – dann ist das keine Wahl. Das ist digitale Erpressung im Gewand der Nutzerfreundlichkeit.
Wir wollen Jugendschutz. Aber nicht um jeden Preis.
Denn der wahre Schutz beginnt nicht damit, Kinder vor Produkten zu bewahren – sondern damit, alle Menschen vor Demütigung, Diskriminierung und Entmündigung zu bewahren.
Eine Gesellschaft, die sagt: „Zeig dein Gesicht, damit wir dir glauben“, hat das Vertrauen in ihre Bürger:innen bereits aufgegeben.
Daher lehnen wir diese Praxis ab – nicht aus Angst vor der Zukunft, sondern aus Respekt vor der Menschlichkeit.
Und wir bitten Sie: Stimmen Sie nicht für eine Technik, die einige schützt – indem sie andere ausschließt.