Sollten Social-Media-Plattformen für die Verbreitung von Hassrede haftbar gemacht werden?
Eröffnungsrede (These)
Eröffnungsrede der Pro-Seite
Sehr geehrte Damen und Herren, liebe Jury, verehrtes Publikum –
wir stehen heute vor einer Frage, die nicht nur juristisch, sondern moralisch entscheidend ist: Sollten Social-Media-Plattformen für die Verbreitung von Hassrede haftbar gemacht werden? Unsere Antwort ist ein klares Ja. Denn wer die Macht hat, Milliarden Stimmen zu lenken, trägt auch die Pflicht, Schaden zu verhindern.
Social-Media-Plattformen sind längst keine neutralen Marktplätze mehr. Sie sind Architekten der Aufmerksamkeit – mit Algorithmen, die Empörung belohnen, Hetze verstärken und Extremismus sichtbar machen. Und während sie davon profitieren – durch Klicks, Daten, Werbeeinnahmen – weigern sie sich, Verantwortung zu übernehmen. Das ist, als würde ein Waffenhersteller sagen: „Ich baue nur die Waffe – wer damit schießt, ist nicht mein Problem.“
Erstens: Plattformen haben eine strukturelle Verantwortung. Sie entscheiden, was viral wird. Studien zeigen: Posts mit aggressiver Sprache erhalten bis zu dreimal so viel Reichweite. Wenn ein System systematisch Gift verbreitet, darf es nicht behaupten, es sei nur der Rohrpostbote.
Zweitens: Hassrede tötet – buchstäblich. Denken Sie an Christchurch, an Hanau, an die Morddrohungen gegen Politikerinnen wie Claudia Roth oder Hanaa Al-Ghamdi. Diese Taten wurden online angekündigt, glorifiziert, ja geradezu einstudiert. Wenn wir Brücken bauen, prüfen wir ihre Statik. Warum prüfen wir dann nicht die Sicherheit digitaler Räume, in denen Menschen psychisch und physisch zerstört werden?
Drittens: Ohne Haftung fehlt der Anreiz. Freiwillige Maßnahmen sind Schönwetterpolitik. Meta entfernt weniger als 1 % antisemitischer Inhalte vor menschlicher Meldung. TikTok moderiert in vielen Sprachen gar nicht erst. Haftung schafft Druck – Druck, endlich in KI-gestützte, kultursensible Moderation zu investieren, statt Milliarden in Lobbyarbeit zu stecken.
Und viertens: Es geht um Gerechtigkeit. Wenn ein kleiner Blogger für einen diffamierenden Tweet belangt werden kann, warum sollte ein Konzern mit einer Marktkapitalisierung größer als viele Nationalhaushalte immun sein? Recht darf nicht nach Unternehmensgröße gestaffelt sein.
Wir fordern keine Zensur – wir fordern Verantwortung. Denn Freiheit ohne Schutz ist nur Freiheit für die Lautesten. Und die dürfen nicht gewinnen.
Eröffnungsrede der Contra-Seite
Vielen Dank.
Die Pro-Seite malt ein düsteres Bild – doch ihr Heilmittel ist gefährlicher als die Krankheit. Wir lehnen die Haftung von Social-Media-Plattformen für Hassrede ab. Nicht, weil Hassrede harmlos wäre – sondern weil Haftung die falsche Adresse trifft und katastrophale Nebenwirkungen hat.
Denn eines muss klar sein: Hassrede entsteht im Kopf von Menschen, nicht in Serverfarmen. Die Verantwortung liegt bei den Urhebern – nicht bei den Kanälen. Sonst müssten wir auch Mobilfunkanbieter haftbar machen, weil jemand am Telefon rassistische Beleidigungen ausspricht. Oder Briefdienste, weil Hassbriefe verschickt werden. Infrastruktur ist nicht Täterschaft.
Unser erstes Argument ist Meinungsfreiheit. Sobald Plattformen haften, werden sie aus Angst vor Strafen alles löschen, was auch nur entfernt kontrovers wirkt. Kritik an Regierungen, satirische Karikaturen, feministische Debatten – all das wird zur Risikokategorie. In Indien und der Türkei sehen wir bereits, wie „Hassrede“-Gesetze genutzt werden, um Aktivist:innen mundtot zu machen. Haftung schafft einen globalen Chilling Effect – und das erste Opfer ist die Demokratie.
Zweitens: Technische Unmöglichkeit. Jede Minute werden auf YouTube 500 Stunden Video hochgeladen. Auf X (früher Twitter) werden täglich über 500 Millionen Tweets abgesetzt. Kein Algorithmus, kein Team – selbst bei unbegrenztem Budget – kann diese Flut in Echtzeit bewerten, ohne Fehler zu machen. Haftung verlangt Unmögliches – und bestraft Unternehmen dafür, dass sie menschliche Kommunikation skalieren.
Drittens: Falsche Zielrichtung. Statt Plattformen zu bestrafen, sollten wir Bildung stärken, Medienkompetenz fördern und echte Strafverfolgung gegen Hetzer ermöglichen. Warum jagen wir dem Spiegel hinterher, statt den Brandstifter zu fassen? Die Pro-Seite will Symptome ahnden – wir wollen Ursachen bekämpfen.
Und viertens: Innovation stirbt in Angst. Start-ups, NGOs, unabhängige Journalist:innen – sie alle nutzen diese Plattformen, weil sie offen sind. Sobald Haftung droht, ziehen sich Investoren zurück, kleine Akteure verschwinden, und übrig bleibt ein oligopolartiger Raum, kontrolliert von wenigen Giganten, die sich teure Rechtsabteilungen leisten können. Das ist kein Fortschritt – das ist digitale Feudalherrschaft.
Wir wollen Hassrede bekämpfen – mit Mut, Bildung und gezielter Strafverfolgung. Aber nicht mit einem Recht, das die Freiheit opfert, um sie zu retten. Denn wer die Plattformen haftbar macht, macht am Ende uns alle stumm.
Widerlegung der Eröffnungsrede
Widerlegung der Pro-Seite
Zweiter Redner der Contra-Seite:
Die Pro-Seite beginnt mit einer emotional starken Analogie: Plattformen seien wie Waffenhersteller. Doch diese Metapher bricht zusammen, sobald man sie ernst nimmt. Ein Waffenhersteller produziert ein Werkzeug, das fast ausschließlich zur Gewaltausübung dient. Ein soziales Netzwerk hingegen ist ein Kommunikationsraum – genutzt von Aktivist:innen, Wissenschaftler:innen, Familien und Künstler:innen. Wenn man ihn haftbar macht, bestraft man nicht den Missbrauch – man schließt den Platz.
Erstens: Die Pro-Seite behauptet, Plattformen seien „aktive Gestalter“. Doch das ignoriert den entscheidenden Unterschied zwischen Verstärkung und Urheberschaft. Ja, Algorithmen priorisieren emotionale Inhalte – aber sie erzeugen sie nicht. Ein Buchhändler, der Bestseller empfiehlt, macht sich nicht mitschuldig am Inhalt. Genauso wenig wie eine Suchmaschine, die Hetzseiten anzeigt, automatisch für deren Inhalt verantwortlich ist.
Zweitens: Die Warnung vor „Chilling Effect“ ist kein theoretisches Szenario – es ist Realität. In Ländern mit strenger Haftung werden feministische Hashtags gelöscht, politische Satire zensiert, anti-autoritäre Proteste als „Hass“ klassifiziert. Die Pro-Seite verweist auf das NetzDG – doch Studien zeigen: Seit seiner Einführung wurde die Löschrate um 300 % erhöht, darunter zahlreiche legitime Meinungsäußerungen. Haftung führt nicht zu Präzision – sie führt zu Panik.
Drittens: Die Behauptung, „technische Unmöglichkeit“ sei eine Ausrede, ist naiv. Selbst mit 5 Milliarden Dollar Budget bleiben Nuancen unerkannt. Ist „Frauen gehören in die Küche“ Satire oder Diskriminierung? Hängt vom Kontext ab. Und dieser Kontext ist oft kulturell, historisch, ironisch – für KI kaum erfassbar. Haftung zwingt dazu, lieber zu löschen als riskieren. Das ist kein Fortschritt – das ist digitale Selbstzensur.
Viertens: Innovation braucht Experimente. Wenn jeder neue Dienst mit der Gefahr millionenschwerer Haftung startet, wird niemand wagen, etwas Neues zu bauen. Kleine Plattformen, die Vielfalt fördern, scheitern – während die großen Monopole weiterregieren. Die Pro-Seite will mehr Sicherheit – doch erreicht wird mehr Kontrolle.
Wir wollen Hassrede stoppen – aber nicht mit Mitteln, die die Freiheit aushöhlen. Denn wer die Plattformen haftbar macht, macht am Ende uns alle stumm.
Widerlegung der Contra-Seite
Zweiter Redner der Pro-Seite:
Die Contra-Seite stellt sich als Verteidigerin der Freiheit dar – doch ihre Position schützt nicht die Schwachen, sondern die Mächtigen. Denn sie blendet aus, dass Plattformen längst keine passiven Vermittler, sondern aktive Moderatoren sind.
Erstens: Die Behauptung, Hassrede entstehe „im Kopf“ und nicht auf Plattformen, ist halbwahr. Natürlich tragen Individuen Verantwortung – aber Plattformen tragen Mitverantwortung. Wie ein Theater, das weiß, dass ein Attentäter im Publikum sitzt, aber trotzdem die Tür öffnet, weil der Vorstellungsumsatz stimmt. Algorithmen erkennen Radikalisierung – und profitieren davon. Meta selbst bestätigte: Nutzer, die extremistische Inhalte konsumieren, sind länger aktiv – und wertvoller für die Werbung.
Zweitens: Der Hinweis auf Bildung und Prävention ist richtig – aber kein Ersatz für Regulierung. Niemand sagt, wir bräuchten nur Haftung. Aber wenn ein Busfahrer betrunken fährt, reicht es nicht, die Fahrgäste aufzuklären. Man muss auch den Fahrer kontrollieren. Genau das tun wir mit dem Digital Services Act – und es funktioniert: Transparente Berichterstattung, klare Kriterien, Rechtsmittel. Keine Zensur – Rechtsstaatlichkeit.
Drittens: Der Gerechtigkeitsappell der Contra-Seite ist irreführend. Ja, ein Blogger ist kein Konzern – aber genau deshalb brauchen wir proportionierte, aber verbindliche Haftung. Niemand fordert, dass Meta für jeden einzelnen Kommentar büßt – wohl aber, dass es Systeme etabliert, die strafbare Hassrede proaktiv erkennen und entfernen. So wie Autohersteller nicht für jeden Unfall haften – aber für defekte Bremsen.
Viertens: Die Angst vor Innovationstod ist übertrieben. Haftung fördert nicht Stillstand – sie fördert verantwortungsvolles Design. Genau wie Umweltgesetze saubere Technologien beschleunigten, so würden Moderationsstandards faire, sichere Plattformen begünstigen – nicht das Wildwest der Viralität.
Die Contra-Seite will Ursachen bekämpfen – wir auch. Aber man bekämpft einen Waldbrand nicht nur mit Feuerwehrschulungen, sondern auch, indem man Funken verbietet, wenn der Wald brennt. Und genau das tun Plattformen täglich: Sie werfen Funken – und leugnen dann, dass sie Feuer legen.
Kreuzverhör
Fragen der Pro-Seite
Dritter Redner der Pro-Seite (an ersten Redner der Contra-Seite):
Sie vergleichen Social-Media-Plattformen mit Briefdiensten. Aber: Würden Sie einem Briefdienst zustimmen, der jeden Brief mit rassistischen Schlagworten automatisch vervielfacht und an alle Empfänger der Stadt schickt – weil das mehr Zustellgebühren bringt? Wenn nicht – warum nennen Sie dann Meta weiterhin „neutralen Kanal“?
Erster Redner der Contra-Seite:
Wir sagen nicht, Plattformen seien perfekt – aber sie sind Infrastruktur. Der Unterschied ist: Ein Briefdienst entscheidet nicht, welcher Brief viral geht. Algorithmen tun das – ja. Aber das macht sie noch nicht zum Urheber. Die Verantwortung bleibt beim Sender, nicht beim Verteiler.
Dritter Redner der Pro-Seite (an zweiten Redner der Contra-Seite):
Sie behaupten, es sei „technisch unmöglich“, Hassrede zu moderieren. Doch Meta gibt jährlich über 5 Milliarden Dollar für Content Moderation aus. Ist es also wirklich unmöglich – oder einfach unbequem, wenn es Gewinnmargen frisst?
Zweiter Redner der Contra-Seite:
Investitionen beweisen nicht Effizienz. Auch bei 5 Milliarden bleibt die Fehlerquote hoch – besonders bei Nuancen, Satire oder kulturellen Kontexten. Haftung würde nicht zu besseren Systemen führen, sondern zu pauschalem Löschen. Lieber ein falscher Tweet gelöscht als eine Milliarde Strafe – so denkt jedes Unternehmen unter Haftungsdruck.
Dritter Redner der Pro-Seite (an vierten Redner der Contra-Seite):
Wenn ein kleiner Blogger für einen diffamierenden Post haftbar gemacht werden kann – warum sollte ein Konzern mit einer Marktkapitalisierung von einer Billion Dollar immun sein? Ist Gerechtigkeit in Ihrer Welt nur für die Kleinen verbindlich?
Vierter Redner der Contra-Seite:
Haftung muss proportional sein. Ein Blogger kontrolliert seinen Inhalt vollständig. Eine Plattform moderiert Milliarden Beiträge – sie kann nicht jede Aussage prüfen, ohne die Freiheit aller zu gefährden. Gerechtigkeit bedeutet nicht Gleichmacherei, sondern angemessene Verantwortung nach Machtposition.
Zusammenfassung des Kreuzverhörs der Pro-Seite
Die Contra-Seite steckt in einem Dilemma: Entweder Plattformen sind tatsächlich mächtige Architekten der Aufmerksamkeit – dann ist ihre „Infrastruktur“-Behauptung eine Farce. Oder sie sind wirklich hilflose Kanäle – dann erklärt sich nicht, warum sie Milliarden in Moderation stecken, statt einfach „nur zu verteilen“. Und wenn Gerechtigkeit proportional sein soll – warum gilt diese Proportionalität nur zugunsten der Mächtigen? Ihre Antworten enthüllen eine bequeme Doppelmoral: Verantwortung für die Kleinen, Immunität für die Giganten.
Fragen der Contra-Seite
Dritte Rednerin der Contra-Seite (an ersten Redner der Pro-Seite):
Sie fordern Haftung, um Hassrede zu stoppen. Aber wenn Plattformen aus Angst vor Strafen alles löschen, was kontrovers wirkt – würden Sie dann akzeptieren, dass feministische Hashtags wie #MeToo oder anti-rassistische Kampagnen als „potenzielle Hassrede“ gelöscht werden? Ist Ihnen die Sicherheit wichtiger als die Stimme der Unterdrückten?
Erster Redner der Pro-Seite:
Natürlich nicht. Aber Ihre Frage setzt voraus, dass Haftung blind ist. Das muss sie nicht sein. Der Digital Services Act definiert Hassrede klar als strafbare Inhalte – nicht als politische Meinung. Wir wollen keine Zensurmaschine, sondern klare Regeln. Und wenn Plattformen lieber #MeToo löschen als Neonazis – dann zeigt das doch gerade, dass sie bereits jetzt falsche Prioritäten setzen!
Dritte Rednerin der Contra-Seite (an zweiten Redner der Pro-Seite):
Hassrede gab es lange vor Social Media – in Flugblättern, Radiosendungen, Hetzbroschüren. Wenn die Ursache im Menschen liegt – wie kann dann die Haftung eines digitalen Kanals das Problem lösen? Oder bekämpfen Sie lieber Symptome, weil echte Bildungsarbeit zu mühsam ist?
Zweiter Redner der Pro-Seite:
Niemand sagt, Hassrede sei neu. Aber nie zuvor konnte ein Einzelner binnen Minuten Millionen erreichen – und nie zuvor wurden solche Inhalte systematisch belohnt. Wir bekämpfen nicht nur Ursachen – wir dämmen auch Brandbeschleuniger ein. Sollen wir etwa warten, bis der Wald abgebrannt ist, bevor wir Funken verbieten?
Dritte Rednerin der Contra-Seite (an vierten Redner der Pro-Seite):
Stellen Sie sich vor, ein Algorithmus löscht einen satirischen Post über einen Diktator, weil er „hetzerisch“ wirkt – während echte Morddrohungen durchschlüpfen. Wer entscheidet dann, was Hassrede ist? Ein KI-System? Eine indische Outsourcing-Firma? Oder ein Richter in Brüssel? Wo ziehen Sie die Linie – und wer kontrolliert die Kontrolleure?
Vierter Redner der Pro-Seite:
Genau deshalb brauchen wir transparente, demokratisch legitimierte Regeln – nicht das heutige Wildwest, in dem Meta im Hinterzimmer entscheidet, was „akzeptabel“ ist. Haftung zwingt Plattformen, menschliche, kultursensible Moderation aufzubauen – und Rechtsmittel zu gewährleisten. Besser eine öffentliche Debatte über Grenzen als private Willkür hinter verschlossenen Türen.
Zusammenfassung des Kreuzverhörs der Contra-Seite
Die Pro-Seite weicht den Kernfragen aus: Ja, sie wollen Regeln – aber wer definiert sie? Ja, sie wollen Transparenz – aber wie verhindern sie Overblocking in der Praxis? Und ja, sie lehnen Zensur ab – doch sobald Haftung droht, wird jede Plattform lieber zu viel als zu wenig löschen. Ihre Antworten zeigen: Sie glauben an technokratische Lösungen, als könne man Hassrede wie Spam filtern. Doch Sprache ist kein Virus – sie ist Bedeutung. Und Bedeutung lässt sich nicht algorithmisch justieren, ohne Freiheit zu opfern. Am Ende bleibt ihre Vision eine Illusion: eine Welt, in der man Hass löschen kann, ohne dabei auch Mut, Widerspruch und Wahrheit zu treffen.
Freie Debatte
Erster Redner der Pro-Seite:
Die Gegenseite sagt immer wieder: „Plattformen sind nur Infrastruktur.“ Aber wenn ein Supermarkt systematisch abgelaufene Lebensmittel in die vordersten Regale stellt – weil sie mehr Aufmerksamkeit erregen –, ist er dann noch neutral? Nein. Er ist Komplize. Social-Media-Algorithmen tun genau das: Sie pushen Hetze, weil Empörung klickt. Und während Meta uns mit millimetergenauer Präzision Tampons, Reisen und Therapeuten vorschlägt, behauptet es plötzlich, es könne nicht erkennen, ob „Tötet alle Juden“ Satire oder Straftat ist. Entweder ist das absurd – oder zynisch. Wir glauben Letzteres.
Erster Redner der Contra-Seite:
Ach, jetzt sind Algorithmen also Hellseher? Die Pro-Seite will, dass Plattformen gleichzeitig alles wissen – und nichts falsch machen dürfen. Aber Kontext ist menschlich. Wenn ich sage: „Diese Politikerin ist eine Schlange“, ist das Hass – oder Metapher? Wenn Aktivist:innen in Saudi-Arabien schreiben: „Der König muss fallen“, ist das Aufruf zur Gewalt – oder legitimer Widerstand? Wer entscheidet das? Ein Algorithmus aus Kalifornien? Ein Outsourcing-Team in Manila? Oder ein Richter in Berlin? Ohne globale, demokratische Standards wird Haftung zur Lotterie – und Verlierer sind immer die Schwächsten.
Zweiter Redner der Pro-Seite:
Interessant: Die Contra-Seite fürchtet falsche Entscheidungen – aber heute löschen Plattformen bereits Inhalte willkürlich! Ohne Transparenz, ohne Rechtsmittel, ohne Begründung. Das ist kein Schutz der Freiheit – das ist digitale Willkür hinter verschlossenen Türen. Haftung zwingt zu klaren Regeln, zu Berufungsmechanismen, zu menschlicher Aufsicht. Der Digital Services Act zeigt: Es geht! Und übrigens – wenn Plattformen so schlecht im Erkennen von Hass sind, warum sind sie dann so gut darin, meine Trauer nach dem Tod meines Onkels zu erkennen… um mir Bestattungsversicherungen zu verkaufen?
(Publikum lacht leise)
Zweiter Redner der Contra-Seite:
Genau das ist das Problem! Die Pro-Seite will mehr Regulierung – aber wer kontrolliert die Kontrolleure? In Indien wurde #MeToo-Content gelöscht, weil er „sexuell explizit“ sei. In Russland wurden Anti-Kriegs-Posts als „Hassrede“ eingestuft. Sobald Haftung droht, ziehen sich Plattformen auf das Niedrigstmaß an Risiko zurück – und das ist immer die Stimme der Minderheit, der Kritiker, der Unangepassten. Und nebenbei: Warum haften Plattformen für digitale Worte – aber nicht Schulen für Radikalisierung im Pausenhof? Nicht Fernsehsender für Hetze im Talk? Nicht Eltern für Erziehung? Warum nur die Tech-Giganten? Weil sie tief in der Tasche sitzen – nicht weil sie allein schuld sind.
Dritter Redner der Pro-Seite:
Lassen Sie uns tiefer graben. Dies ist keine technische Frage – es ist eine ethische. Die digitale Öffentlichkeit ist heute unser Marktplatz, unser Rathaus, unser Schulhof. Und wenn dieser Raum vergiftet wird, stirbt nicht nur die Meinungsvielfalt – sondern die Demokratie selbst. Die Menschenwürde, geschützt durch Artikel 1 GG, gilt auch online. Wer systematisch die Würde anderer angreift – und wer diesen Angriff profitabel macht –, darf nicht immun sein. Haftung ist kein Zensurhammer. Sie ist die digitale Entsprechung der Verkehrsordnung: Du darfst fahren – aber nicht über Fußgänger hinweg.
Dritte Rednerin der Contra-Seite:
Aber wer definiert, was „Vergiftung“ ist? Die Pro-Seite spricht von „systematischer“ Verbreitung – doch die meisten Hasskommentare entstehen spontan, emotional, oft von Menschen in psychischen Krisen. Sollen Plattformen jetzt auch Psychotherapeuten sein? Und wenn wir Haftung einführen, verschwindet Hass nicht – er wandert in verschlüsselte Chats, in Darknet-Foren, in private Gruppen. Dann sehen wir ihn nicht mehr – aber er wächst im Verborgenen. Ist Blindheit wirklich Sicherheit? Oder nur Selbstbetrug?
Vierter Redner der Pro-Seite:
Ah, das klassische „Underground“-Argument! Als ob Zigarettenwerbung legal bleiben müsste, weil Raucher sonst heimlich rauchen würden. Nein – wir regulieren, um Normen zu setzen. Jede gelöschte Hetznachricht, jede geblockte Verschwörungserzählung sendet ein Signal: Das gehört nicht hierher. Und ja, es wird Fehler geben – aber besser gezielte Fehler unter Rechtsaufsicht als systematisches Versagen im Profitinteresse. Und eines sage ich klar: Wenn ein Unternehmen Milliarden verdient, indem es unsere Aufmerksamkeit verkauft, dann kann es nicht sagen: „Sorry, wir haben nicht gemerkt, dass dabei die Demokratie kaputtging.“
Vierter Redner der Contra-Seite:
Und wenn dieses Unternehmen dann lieber alles löscht, was riskant wirkt – wer schützt dann die feministische Bloggerin, die den Patriarchen „Schlangen“ nennt? Wer schützt den palästinensischen Studenten, der „Israel“ kritisiert – und prompt als Antisemit gelöscht wird? Die Pro-Seite malt sich eine Welt aus, in der kluge Richter und faire Algorithmen regieren. Aber die Realität ist: Haftung führt zu Overblocking – und Overblocking trifft immer die, die ohnehin kaum Gehör finden. Freiheit ist unordentlich. Aber sie ist besser als eine saubere Stille, in der nur noch die Mächtigen sprechen dürfen.
Erster Redner der Pro-Seite (erneut):
Die Contra-Seite fürchtet die saubere Stille – wir fürchten den lauten Mob. Und wissen Sie was? Wenn Plattformen so sehr um ihre Freiheit bangen – warum investieren sie dann nicht in echte, diverse Moderationsteams statt in Steueroptimierung? Warum nicht in KI, die zwischen Satire und Hetze unterscheidet – statt in KI, die uns dazu bringt, drei Stunden lang Katzenvideos zu gucken? Es geht nicht um Perfektion. Es geht um Bemühung. Und Bemühung beginnt erst, wenn Haftung droht.
Zweiter Redner der Contra-Seite (abschließend):
Und wenn Bemühung beginnt, endet Innovation. Denn wer haftet, traut sich nichts Neues. Stellen Sie sich vor: Wikipedia hätte nie gestartet, wenn jeder Editor haftbar gemacht worden wäre für jeden falschen Satz. Open Source, Citizen Journalism, globale Solidaritätsbewegungen – sie alle gedeihen in offenen Räumen. Machen wir diese Räume zu juristischen Minenfeldern, bleibt nur noch das, was sich teure Anwälte leisten kann: Disney, CNN – und vielleicht sogar die AfD. Ist das wirklich die digitale Zukunft, die wir wollen?
Die Debatte ist nicht beendet. Aber eines ist klar: Wer die Freiheit liebt, muss auch ihre Verletzlichkeit schützen. Die Frage ist nur – mit welchem Werkzeug?
Schlussrede
Schlussrede der Pro-Seite
Seit Beginn dieser Debatte haben wir einen klaren Kompass: Wer Macht hat, trägt Verantwortung. Und Social-Media-Plattformen besitzen heute mehr Macht über unsere öffentliche Meinungsbildung als je zuvor ein Medium in der Geschichte der Menschheit.
Die Gegenseite sagt, Hassrede entstehe im Kopf – nicht im Algorithmus. Aber wir sagen: Wenn du weißt, dass dein System Hass belohnt, ihn verstärkt, ihn viral macht – und du änderst nichts, weil es Profit bringt – dann bist du nicht unschuldig. Du bist Komplize.
Wir haben gezeigt: Es ist technisch möglich, besser zu moderieren – Meta gibt jährlich Milliarden dafür aus. Nur: Ohne Haftung bleibt es Schönwettermoderation. Erst wenn Konzerne für Schaden haften, investieren sie wirklich in menschliche, kultursensible, kontextbewusste Systeme – statt in Lobbyisten, die Gesetze verwässern.
Und ja – Hassrede tötet. Nicht metaphorisch. In Hanau. In Buffalo. In Halle. Diese Taten wurden nicht im Vakuum geplant. Sie wurden genährt, geteilt, glorifiziert – auf Plattformen, die danach sagten: „Nicht unser Problem.“
Wenn ein kleiner Journalist für einen falschen Tweet belangt werden kann, warum sollte ein Konzern mit einer Marktkapitalisierung größer als die Schweiz immun sein? Recht darf nicht nach Unternehmensgröße gestaffelt sein. Das ist keine Gerechtigkeit – das ist Privileg.
Die Contra-Seite warnt vor Zensur. Doch wir fordern keine Zensur – wir fordern Rechtsstaatlichkeit im Digitalen. Der Digital Services Act, das NetzDG – sie zeigen: Man kann Hassrede definieren, ohne Karikaturen oder Kritik zu treffen. Die Angst vor Fehlern darf kein Freifahrtschein für Untätigkeit sein. Sonst müssten wir auch auf Ampeln verzichten, weil jemand mal bei Rot überquert.
Am Ende geht es um eine simple Frage: Wollen wir eine digitale Öffentlichkeit, in der die Lautesten, Hassendsten und Profitgierigsten gewinnen? Oder eine, in der auch die Leisen, die Bedrohten, die Andersdenkenden Platz haben?
Freiheit ohne Schutz ist nur Freiheit für die Starken.
Wir wollen eine Freiheit, die alle schützt – nicht nur die, die am meisten klicken.
Daher sind wir fest davon überzeugt: Ja, Plattformen müssen haftbar gemacht werden. Nicht aus Rache – sondern aus Respekt vor dem Menschen.
Schlussrede der Contra-Seite
Die Pro-Seite spricht mit Empathie – und das ehrt sie. Aber Empathie allein macht noch keine gute Politik. Gute Politik braucht Proportionalität, Kontext und Mut, unbequeme Wahrheiten auszusprechen: Hassrede ist ein menschliches, kein technisches Problem.
Plattformen sind nicht die Brandstifter – sie sind der Spiegel. Und wenn wir den Spiegel zertrümmern, weil uns das Bild nicht gefällt, sehen wir am Ende gar nichts mehr.
Die Gegenseite behauptet, Algorithmen seien aktive Hetzer. Doch Algorithmen lernen von uns – von unseren Klicks, unseren Shares, unserer Wut. Die wahre Radikalisierung beginnt nicht auf TikTok – sie beginnt in Klassenzimmern ohne Medienkompetenz, in Wohnzimmern ohne Dialog, in Gesellschaften, die Spaltung zulassen. Statt die Symptome zu ahnden, müssen wir die Krankheit heilen.
Und hier liegt die Gefahr der Haftung: Sie lenkt ab. Sie suggeriert, ein paar gelöschte Posts würden Extremismus stoppen. Aber Hass wandert ins Darknet, sobald er auf Instagram blockiert wird. Und wer leidet unter pauschaler Moderation? Nicht die Trolle – die lachen darüber. Sondern die Aktivistin in Istanbul, die Feministin in Delhi, die queere Jugendliche in Polen – all jene, deren Stimme ohnehin brüchig ist. Haftung schützt nicht die Schwachen – sie macht sie stumm.
Die Pro-Seite sagt: „Ohne Haftung fehlt der Anreiz.“ Aber wir sehen doch: Der Anreiz ist da! Nutzer:innen fordern Sicherheit, Investoren fordern Nachhaltigkeit, Regierungen regulieren bereits – intelligent, gezielt, ohne pauschale Haftung. Warum also das Risiko eingehen, die Wiege der digitalen Demokratie zu ersticken?
Denn am Ende geht es um mehr als Hassrede. Es geht um das Prinzip: Dürfen wir noch streiten, provozieren, zweifeln – oder müssen wir uns fürchten, weil ein Algorithmus oder ein überfordertes Moderationsteam uns irrtümlich in die Zensur schickt?
Meinungsfreiheit ist kein Luxus – sie ist das Immunsystem der Demokratie. Und Immunsysteme brauchen Reibung, nicht Sterilität.
Wir wollen Hassrede bekämpfen – mit Mut, Bildung und echter Strafverfolgung. Aber nicht mit einem Gesetz, das am Ende die Freiheit opfert, um sie zu retten.
Denn wer die Plattformen haftbar macht, macht am Ende uns alle zu Verdächtigen.
Und das – meine Damen und Herren – ist kein Fortschritt. Das ist Angst, verkleidet als Gerechtigkeit.