Download on the App Store

Sollten Journalisten KI-Tools zur Recherche verwenden dürfen?

Eröffnungsrede (These)

Eröffnungsrede der Pro-Seite

Meine Damen und Herren, liebe Jury, verehrtes Publikum,

wir sagen: Ja, Journalisten sollten KI-Tools zur Recherche nicht nur dürfen – sie sollten sie nutzen, um besser, schneller und gerechter zu arbeiten. Denn Journalismus lebt nicht vom romantischen Ideal des einsamen Reporters mit Notizblock, sondern vom Auftrag, Wahrheit sichtbar zu machen – besonders dann, wenn sie verborgen, komplex oder absichtlich verschleiert ist.

Lassen Sie mich drei Gründe nennen, warum KI hier kein Feind, sondern ein Verbündeter ist.

Erstens: KI entlastet – sie ersetzt nicht.
In Zeiten von Personalabbau, sinkenden Budgets und immer schnelleren Nachrichtenzyklen droht investigativer Journalismus zu erliegen. Doch Tools wie automatisierte Datenanalysen oder Spracherkennung können Tausende von Dokumenten in Minuten scannen – etwas, das einem Team wochenlangen Aufwand abverlangen würde. Denken Sie an die Panama Papers: Ohne algorithmische Unterstützung wäre diese Enthüllung unmöglich gewesen. KI ist hier kein Orakel, sondern ein Assistent – der Mensch bleibt am Steuer.

Zweitens: KI kann Transparenz schaffen, wo Dunkelheit herrscht.
Moderne Modelle erkennen Muster in Desinformation, identifizieren Deepfakes oder überprüfen Quellenkreuze in Echtzeit. Während Verschwörungserzähler mit künstlicher Intelligenz lügen, können Journalist:innen mit ihr die Wahrheit verteidigen. KI wird so zum digitalen Lügendetektor – nicht perfekt, aber mächtig, wenn sie kritisch eingesetzt wird.

Drittens: KI demokratisiert den Zugang zur Wahrheit.
Nicht jede Lokalzeitung hat ein Team von Datenjournalist:innen. Aber wenn eine freie Reporterin in Brandenburg mit einem KI-Tool dieselben Recherchemöglichkeiten erhält wie eine Redaktion in New York – dann stärkt das nicht nur Vielfalt, sondern auch die Resilienz unserer Demokratie.

Und ja – wir wissen, dass KI Fehler macht. Aber wer behauptet, menschliche Recherche sei fehlerfrei? Der Unterschied ist: Wir können KI transparent machen, auditieren, hinterfragen. Vorausgesetzt, wir nutzen sie bewusst – nicht blind.

Unser Maßstab ist klar: Journalismus muss wirksam sein, um relevant zu bleiben. Und in einer Welt, die sich rasant verändert, ist Stillstand keine Ethik – sondern Kapitulation.


Eröffnungsrede der Contra-Seite

Vielen Dank.

Wir sagen: Nein, Journalisten sollten KI-Tools zur Recherche nicht uneingeschränkt nutzen dürfen – denn sobald die Maschine zum Mitdenker wird, gerät die Seele des Journalismus in Gefahr.

Journalismus ist mehr als Informationsverarbeitung. Er ist Vertrauen. Er ist Urteilskraft. Er ist die Fähigkeit, zwischen Zeilen zu lesen, Zwischentöne zu hören und menschliches Leid zu würdigen. Und genau das kann keine KI – egal wie „intelligent“ sie genannt wird.

Warum wir strikt warnen:

Erstens: KI ist eine Blackbox – Journalismus muss eine Glasbox sein.
Wenn ein Algorithmus mir sagt, dass eine Quelle „unglaubwürdig“ ist, aber nicht erklärt, warum – wie soll ich das gegenüber meinem Publikum rechtfertigen? Journalismus lebt von Nachvollziehbarkeit. Doch KI-Modelle basieren auf proprietären Codezeilen, trainiert mit Daten, deren Herkunft oft im Dunkeln liegt. Das widerspricht dem Prinzip der Rechenschaftspflicht – einem Grundpfeiler unseres Berufsstands.

Zweitens: KI verstärkt, was sie kennt – und ignoriert, was sie nicht sieht.
Diese Systeme lernen aus bestehenden Daten – und reproduzieren damit systemische Vorurteile: gegen Frauen, Minderheiten, Randgruppen. Wenn eine KI bei der Recherche automatisch „Experten“ vorschlägt, die fast ausschließlich weiße Männer sind, dann schreibt sie Ungleichheit nicht nur fort – sie institutionalisiert sie. Ist das der Journalismus, den wir wollen?

Drittens: Die wahre Gefahr ist nicht die Technik – sondern die Faulheit, die sie befördert.
KI verführt dazu, den mühsamen Weg der direkten Quellenarbeit, des Hinterfragens, des Zweifelns zu umgehen. Doch gerade dieser Zweifel ist es, der Journalist:innen von Influencern unterscheidet. Sobald wir uns auf maschinelle Empfehlungen verlassen, verlernen wir das Handwerk – und damit die Fähigkeit, überhaupt noch zu erkennen, wann die KI uns täuscht.

Und schließlich: Wer kontrolliert diese Tools? Meist Tech-Konzerne, deren Geschäftsmodell auf Aufmerksamkeit, nicht auf Wahrheit beruht. Soll unser vierte Stand wirklich Werkzeuge nutzen, die von denselben Akteuren stammen, die unsere Aufmerksamkeit fragmentieren und unsere Gesellschaft polarisieren?

Unser Maßstab ist einfach: Journalismus muss menschlich bleiben – oder er hört auf, Journalismus zu sein.
Erlauben wir KI als Recherchemittel ohne klare Grenzen, opfern wir nicht Effizienz – sondern Glaubwürdigkeit. Und die lässt sich nicht regenerieren wie ein Akku.


Widerlegung der Eröffnungsrede

Widerlegung der Pro-Seite

Meine Damen und Herren,

die Contra-Seite malt ein düsteres Bild: eine Welt, in der Journalist:innen willenlos Algorithmen folgen, während Tech-Giganten im Hintergrund unsere Demokratie aushöhlen. Das klingt dramatisch – fast wie eine Netflix-Serie. Nur leider stimmt es nicht mit der Realität überein.

Zunächst zur „Blackbox“-These. Ja, einige kommerzielle KI-Modelle sind intransparent – aber das gilt genauso für viele menschliche Entscheidungen! Wie oft entscheiden Redakteur:innen aus Bauchgefühl, politischem Druck oder Zeitmangel, welche Story läuft und welche nicht? Niemand verlangt, dass jede redaktionelle Entscheidung in Echtzeit dokumentiert wird. Und doch akzeptieren wir das als Teil des Handwerks. Warum gelten plötzlich strengere Maßstäbe für Werkzeuge, die wir kontrollieren können? Open-Source-KI, erklärbare Modelle, Audit-Logs – all das existiert. Die Contra-Seite tut so, als gäbe es nur die Wahl zwischen blindem Vertrauen oder völliger Ablehnung. Aber Journalismus lebt doch gerade davon, Grauzonen zu navigieren!

Dann das Argument der Voreingenommenheit. Natürlich: KI kann Vorurteile verstärken – wenn man sie dumm nutzt. Aber wer sagt, dass menschliche Recherche immun dagegen ist? Studien zeigen: Auch erfahrene Journalist:innen bevorzugen Quellen, die ihrer eigenen Weltanschauung entsprechen. Der Unterschied? Mit KI können wir diese Verzerrungen sichtbar machen. Wir können Bias-Metriken messen, Diversitätschecks einbauen, alternative Perspektiven algorithmisch forcieren. Das ist kein Risiko – das ist eine Chance zur Selbstkorrektur.

Und schließlich die „Faulheitsfalle“. Als ob Journalist:innen plötzlich aufhören würden, kritisch zu denken, nur weil ein Tool ihnen Zeit spart! Niemand behauptet, man solle KI-Ergebnisse unreflektiert übernehmen. Aber warum soll es „faul“ sein, wenn eine Reporterin statt stundenlang Akten zu wälzen lieber Zeit mit Opfern eines Skandals verbringt? Effizienz ist kein moralischer Makel – sie ist Befreiung für das, was wirklich zählt: Empathie, Kontext, Urteilskraft.

Die Contra-Seite verwechselt das Werkzeug mit dem Willen. KI ist kein autonomer Akteur – sie ist ein Spiegel unserer Absichten. Wenn wir sie verantwortungsvoll einsetzen, macht sie uns nicht schwächer, sondern stärker. Und genau das ist unser Punkt: Nicht ob wir KI nutzen, sondern wie.


Widerlegung der Contra-Seite

Vielen Dank.

Die Pro-Seite preist KI als Retterin des investigativen Journalismus – als neutralen Assistenten, der uns nur hilft, schneller zur Wahrheit zu kommen. Doch dieser Optimismus beruht auf drei gefährlichen Illusionen.

Erstens: Die Illusion der Kontrolle.
Sie sagen: „Der Mensch bleibt am Steuer.“ Aber wer bestimmt, was das Steuer überhaupt kann? Die meisten KI-Tools werden von Unternehmen wie Google, Microsoft oder OpenAI entwickelt – Konzerne, deren Geschäftsmodell auf Datensammlung, Profilbildung und Aufmerksamkeitsökonomie beruht. Wenn eine Lokalreporterin ein KI-Tool nutzt, um „Quellen zu prüfen“, greift sie auf Infrastrukturen zurück, die nicht ihr gehören, nicht ihr unterliegen und deren Logik sie nicht beeinflussen kann. Das ist keine Entlastung – das ist digitale Leibeigenschaft im Gewand der Innovation.

Zweitens: Die Illusion der Neutralität.
Die Pro-Seite behauptet, KI könne „Transparenz schaffen“. Doch Transparenz setzt voraus, dass man versteht, wie eine Aussage zustande kommt. Wenn ein Modell sagt: „Diese Aussage ist wahrscheinlich falsch“, aber nicht erklärt, ob es auf Satzbau, Wortwahl oder Trainingsdaten reagiert – dann ist das keine Transparenz, sondern Theater. Und noch schlimmer: Sobald Journalist:innen anfangen, KI-Aussagen als „objektive Fakten“ zu zitieren, delegieren sie ihre Urteilsfähigkeit an eine Maschine, die gar nicht urteilen kann – sie berechnet nur Wahrscheinlichkeiten.

Drittens: Die Illusion der Demokratisierung.
Ja, eine freie Journalistin in Brandenburg kann heute ein KI-Tool nutzen. Aber muss sie dafür nicht erst lernen, Prompts zu formulieren, Outputs zu interpretieren, Fehler zu erkennen? Und wer bezahlt die API-Gebühren, wenn sie täglich hunderte Anfragen stellt? Wer hat Zugang zu den besten Modellen – die kostenlosen Open-Source-Versionen oder die teuren Premium-APIs der Silicon-Valley-Riesen? Die Wahrheit ist: KI vertieft nicht die Chancengleichheit – sie schafft neue Hierarchien zwischen denen, die die Technik beherrschen, und denen, die ihr ausgeliefert sind.

Und hier liegt der Kernfehler der Pro-Seite: Sie reduziert Journalismus auf Informationsverarbeitung. Doch Journalismus ist kein Data-Mining. Er ist Begegnung. Er ist Zweifel. Er ist die Bereitschaft, sich täuschen zu lassen – und daraus zu lernen. Sobald wir diese menschliche Unvollkommenheit durch maschinelle Perfektion ersetzen wollen, verlieren wir nicht nur Fehler – wir verlieren Seele.

Die Frage ist also nicht: „Können wir KI nutzen?“
Sondern: Wollen wir einen Journalismus, der glaubt, Wahrheit ließe sich skalieren?


Kreuzverhör

Fragen der Pro-Seite

Frage an den ersten Redner der Contra-Seite:
Sie sagen, Journalismus müsse „menschlich bleiben“. Aber nutzen Sie nicht schon heute Suchmaschinen, E-Mail-Verschlüsselung oder Transkriptionssoftware – alles Produkte algorithmischer Systeme? Wo genau ziehen Sie die Linie zwischen „akzeptabler Technik“ und „gefährlicher KI“, und warum ist diese Linie nicht willkürlich?

Antwort des ersten Redners der Contra-Seite:
Gute Frage. Die Linie liegt dort, wo die Technik Urteile trifft, statt nur Werkzeuge bereitzustellen. Eine Suchmaschine sortiert nach Relevanz – aber sie sagt mir nicht, ob eine Quelle glaubwürdig ist. Sobald ein Algorithmus mir vorgibt, was wahr ist, übernimmt er journalistische Verantwortung – und das darf nur ein Mensch tun.

Frage an den zweiten Redner der Contra-Seite:
Sie warnen vor Bias in KI-Systemen. Aber kennen Sie Fälle, in denen Journalist:innen ohne KI systemische Vorurteile reproduziert haben – etwa bei Berichterstattung über Migranten oder Armut? Wenn KI-Tools explizit auf Bias trainiert und transparent gemacht werden können – wäre das nicht besser als menschliche Intuition, die oft unbewusst diskriminiert?

Antwort des zweiten Redners der Contra-Seite:
Natürlich gibt es menschliche Fehler – aber wir können sie ansprechen, korrigieren, hinterfragen. Bei KI bleibt der Bias oft unsichtbar, weil er in Millionen Zeilen Code versteckt ist. Und nein: Ein Tool, das „Bias-Metriken“ anzeigt, ist kein Freifahrtschein. Es ist wie ein Rauchmelder im Brandstifterhaus – er warnt, aber löscht nicht das Feuer.

Frage an den vierten Redner der Contra-Seite:
Stellen Sie sich vor: Eine freie Journalistin deckt Korruption in einer Kleinstadt auf – dank eines Open-Source-KI-Tools, das verdächtige Zahlungsströme identifizierte. Ohne dieses Tool hätte sie nie angefangen. Würden Sie ihr raten, diese Enthüllung zurückzuhalten, nur weil sie KI genutzt hat? Oder würden Sie zugeben, dass hier KI mehr Menschlichkeit ermöglicht hat – nämlich Gerechtigkeit?

Antwort des vierten Redners der Contra-Seite:
Ich würde ihr gratulieren – und fragen, ob sie die Ergebnisse unabhängig verifiziert hat. Denn das ist der Punkt: KI als Impulsgeber mag akzeptabel sein. Aber sobald sie zur Entscheidungsgrundlage wird, ohne menschliche Überprüfung, verlassen wir den Boden des Journalismus. Ja, KI kann helfen – aber nur, solange sie Diener bleibt, nicht Herr.

Zusammenfassung des Kreuzverhörs der Pro-Seite

Die Contra-Seite räumt ein: KI kann nützlich sein – ja, sogar notwendig –, solange sie nicht urteilt, sondern unterstützt. Doch genau das tun moderne Recherche-Tools: Sie filtern, priorisieren, bewerten – und geben damit Richtung. Die Contra-Seite will eine klare Trennlinie ziehen zwischen „Werkzeug“ und „Urteil“, doch in der Praxis verschwimmt diese Grenze. Ihre eigene Logik zwingt sie, KI-Nutzung unter strengen Bedingungen zuzulassen – was unsere These bestätigt: Es geht nicht um ob, sondern um wie.


Fragen der Contra-Seite

Frage an den ersten Redner der Pro-Seite:
Sie preisen KI als „digitalen Lügendetektor“. Aber wer prüft, ob der Lügendetektor selbst lügt? Wenn ein KI-Tool fälschlicherweise behauptet, eine Quelle sei manipuliert – und Sie berichten darüber – wer trägt dann die Verantwortung? Der Algorithmus? Der Entwickler? Oder doch wieder der Mensch – also Sie?

Antwort des ersten Redners der Pro-Seite:
Natürlich trage ich die Verantwortung – und das ist auch gut so. Aber das ändert nichts daran, dass das Tool mir eine Spur liefert, die ich sonst nie gefunden hätte. Niemand zitiert KI als Quelle; wir zitieren Fakten, die wir dank KI entdeckt und dann menschlich verifiziert haben. Die Verantwortung liegt beim Journalisten – die Effizienz kommt von der Maschine.

Frage an den zweiten Redner der Pro-Seite:
Sie sagen, KI demokratisiere den Journalismus. Aber die besten Tools sind teuer, proprietär und in der Hand weniger Tech-Giganten. Ist es nicht eher so, dass KI den Graben zwischen reichen Medienhäusern und lokalen Reporter:innen vertieft – weil nur die Ersten Zugang zu zuverlässigen Modellen haben?

Antwort des zweiten Redners der Pro-Seite:
Das ist ein berechtigter Hinweis – aber kein Argument gegen KI, sondern für Regulierung und Open Source. Genau wie das Internet erst elitär war, bevor es offen wurde, brauchen wir ethische Rahmenbedingungen. Und übrigens: Schon heute gibt es kostenlose Tools wie Aleph oder Google’s Fact Check Tools – die werden genutzt, gerade von Unabhängigen. Die Lösung ist nicht Verbot, sondern Zugang.

Frage an den vierten Redner der Pro-Seite:
Wenn KI so unverzichtbar ist – warum schreiben dann nicht gleich KI-Modelle die Artikel? Warum brauchen wir überhaupt noch Journalist:innen, wenn die Maschine recherchieren, analysieren und sogar schreiben kann? Oder fürchten Sie, dass Ihr Beruf bald überflüssig wird – und verteidigen Sie KI nur, um ihn zu retten?

Antwort des vierten Redners der Pro-Seite:
(lacht leicht) Eine charmante Provokation – aber nein. KI kann keine Empathie zeigen, wenn eine Mutter über den Tod ihres Kindes spricht. Sie kann nicht spüren, wann jemand lügt, weil seine Hände zittern. KI liefert Daten – der Mensch gibt ihnen Sinn. Und genau deshalb brauchen wir Journalist:innen mehr denn je: nicht als Datenkratzer, sondern als Deuter, Zeugen, Gewissen. KI macht uns nicht überflüssig – sie macht uns freier, das Menschliche zu tun.

Zusammenfassung des Kreuzverhörs der Contra-Seite

Die Pro-Seite betont stets: Der Mensch bleibt am Steuer. Doch sobald KI entscheidet, wohin dieser Steuer gelenkt wird – welche Dokumente relevant sind, welche Stimmen gehört werden – übernimmt sie indirekt die Agenda. Die Pro-Seite weicht der Kernfrage aus: Wer kontrolliert die Filter, durch die die Wirklichkeit hindurch muss, bevor sie zum „Fakt“ wird? Ihre Hoffnung auf Open Source und Ethik ist lobenswert – aber naiv angesichts der Machtstrukturen, die KI heute prägen. Solange wir diese nicht auflösen, bleibt KI kein Werkzeug der Befreiung, sondern der Unterwerfung – auch im Journalismus.


Freie Debatte

Erster Redner der Pro-Seite:
Die Contra-Seite malt KI wie einen digitalen Dämon, der uns die Seele stiehlt. Aber mal ehrlich: Als Gutenberg die Druckerpresse erfand, fürchteten Mönche auch, das heilige Wort werde entweiht. Heute lachen wir darüber. KI ist kein Orakel – sie ist ein Werkzeug. Und wer sagt, Journalist:innen seien zu dumm, um es kritisch zu nutzen, unterschätzt nicht die Technik, sondern den Berufsstand selbst. Wenn ich mit KI in Sekunden 10.000 Gerichtsakten durchforsten kann, um dann menschlich mit Opfern zu sprechen – ist das Faulheit? Nein. Das ist Respekt vor der Zeit der Betroffenen.

Erste Rednerin der Contra-Seite:
Ach, die Gutenberg-Analogie! Als ob KI neutral wäre wie Bleisatz. Aber Algorithmen sind nicht neutral – sie sind trainiert mit Daten, die von Menschen stammen, die Vorurteile haben. Und wenn Ihre KI Ihnen vorschlägt, „Experten“ zu interviewen, und 90 % davon sind Männer über 50 aus Berlin-Mitte – wer entscheidet dann über Relevanz? Sie? Oder der Code eines Silicon-Valley-Start-ups? Journalismus braucht Zweifel. Doch sobald Sie KI als Filter akzeptieren, glauben Sie, Sie sehen die ganze Welt – dabei sehen Sie nur, was der Algorithmus Ihnen erlaubt.

Zweiter Redner der Pro-Seite:
Genau darum geht es: Wir hinterfragen den Algorithmus! Kein seriöser Journalist zitiert KI als Quelle – genauso wenig wie Excel. Aber wenn ein Tool mir zeigt: „Achtung, diese Behauptung kursiert nur in drei dubiosen Foren“, dann ist das kein Verlust der Urteilskraft – das ist ihre Verstärkung! Und übrigens: Die Contra-Seite will KI verbieten, nutzt aber täglich Suchmaschinen, die ebenfalls Algorithmen sind. Ist Google plötzlich ethisch, weil es alt ist?

Zweiter Redner der Contra-Seite:
Suchmaschinen sind transparenter als Closed-Source-KI-Modelle – und wir wählen bewusst, welche Links wir anklicken. Bei KI-Recherche-Tools aber wird oft schon im Hintergrund entschieden, was „wichtig“ ist. Und ja, wir nutzen Technik – aber nicht jede Technik ist gleich. Ein Hammer kann ein Haus bauen oder einen Schädel spalten. Die Frage ist: Wer hält den Hammer? Und wer definiert, was ein „guter“ Treffer ist? Solange diese Definition in Blackboxes verschwindet, bleibt KI ein Risiko – kein Retter.

Dritter Redner der Pro-Seite:
Interessant: Die Contra-Seite fürchtet Blackboxes – aber schlägt kein Verbot von Smartphones, Cloud-Speichern oder sogar Übersetzungs-Apps vor, die alle KI nutzen. Warum? Weil sie nützlich sind! Der Unterschied liegt nicht in der Technik, sondern in der Haltung. Wir sagen: Nutzen mit Augenmaß. Mit Checklisten. Mit Kolleg:innen, die prüfen. Und mit Open-Source-Modellen, deren Code jeder einsehen kann. Die wahre Gefahr ist nicht KI – sondern der Glaube, wir könnten ohne Fortschritt Wahrheit verteidigen.

Dritte Rednerin der Contra-Seite:
Open Source klingt toll – aber wer hat Zeit, den Code zu prüfen, wenn die Deadline drängt? In der Praxis wird KI blind genutzt, weil sie schnell ist. Und genau das ist der Punkt: Effizienz frisst Ethik. Wenn Redaktionen unter Druck stehen, wird „prüfen“ zur Ausnahme. Und plötzlich zitieren wir Quellen, die von einem System vorgeschlagen wurden, das gelernt hat, dass Skandale mehr Klicks bringen. Ist das noch Journalismus? Oder Content-Optimierung mit investigativem Anstrich?

Vierter Redner der Pro-Seite:
Content-Optimierung? Das ist doch das Geschäftsmodell von Social Media – nicht von Journalist:innen! Wir reden hier nicht von KI, die Artikel schreibt, sondern von Tools, die Hinweise liefern. Und wissen Sie, was wirklich skandalös ist? Dass wir heute so wenige investigative Reporter:innen haben, dass Korruption oft unentdeckt bleibt. KI könnte helfen, diese Lücke zu schließen – gerade für kleine Lokalredaktionen. Sollen wir denen sagen: „Nein, ihr dürft nicht effizienter sein, weil irgendwo ein Algorithmus mal danebenlag“? Das ist elitär – und gefährlich für die Demokratie.

Vierter Redner der Contra-Seite:
Effizienz um jeden Preis? Nein. Denn wenn die Lokalzeitung in Brandenburg plötzlich nur noch das recherchiert, was ihre KI als „relevant“ markiert, dann hört sie vielleicht nicht mehr die Stimme der alleinerziehenden Mutter, die keinen Twitter-Account hat. Journalismus lebt von den Unsichtbaren. Und KI sieht nur, was bereits digital sichtbar ist. Wer also meint, KI mache Journalismus demokratischer, blendet aus, dass sie zugleich neue Blinde Flecken schafft – und zwar genau dort, wo Menschlichkeit am nötigsten ist.


Schlussrede

Schlussrede der Pro-Seite

Meine Damen und Herren, liebe Jury,

seit Beginn dieser Debatte haben wir einen klaren Kompass: KI darf kein Ersatz für Urteilskraft sein – aber sie muss ein Verbündeter im Kampf um Wahrheit werden.

Die Contra-Seite malt ein dystopisches Bild – als ob jeder Klick auf ein KI-Tool den Untergang des investigativen Geistes einläutet. Doch die Realität ist nuancierter. Wir haben gezeigt: KI entlastet Journalist:innen von repetitiver Arbeit, damit sie sich dem widmen können, was Maschinen nie leisten können – Empathie zeigen, Kontext deuten, Zweifel aushalten. Die Panama Papers, die CumEx-Enthüllungen, die Recherchen zu Klimasubventionen – all das wäre ohne algorithmische Unterstützung heute kaum mehr möglich. Nicht weil Journalist:innen faul geworden sind, sondern weil die Welt komplexer geworden ist.

Und ja – KI kann voreingenommen sein. Aber wissen Sie, was noch voreingenommener ist? Ein übermüdeter Redakteur, der unter Zeitdruck nur die ersten drei Google-Treffer liest. Der Unterschied? Wir können KI messen, auditieren, offenlegen. Wir können Open-Source-Modelle nutzen, Bias-Metriken einbauen, Kolleg:innen zur Gegenprüfung hinzuziehen. Das ist keine Kapitulation an die Technik – das ist Professionalisierung.

Die Contra-Seite sagt: „Journalismus muss menschlich bleiben.“ Wir sagen: Genau deshalb brauchen wir KI. Denn wenn eine freie Journalistin in einer Kleinstadt dieselben Recherchemöglichkeiten erhält wie eine Großstadtredaktion, dann wird Journalismus nicht entmenschlicht – er wird gerechter. Dann erreicht die Wahrheit auch die Orte, wo sie am dringendsten gebraucht wird.

Dies ist keine Debatte über Tools. Es ist eine Entscheidung darüber, ob wir zulassen, dass nur die Mächtigen die Wahrheit kontrollieren – oder ob wir allen Werkzeuge geben, sie zu enthüllen.

Daher sind wir fest davon überzeugt: Erlauben wir KI nicht als Recherchemittel, verbieten wir nicht Technik – wir verbieten Mut.


Schlussrede der Contra-Seite

Vielen Dank.

Die Pro-Seite spricht von Effizienz, von Demokratisierung, von „Werkzeugen“. Aber sie weicht der entscheidenden Frage aus: Wer formt die Werkzeuge – und wer wird durch sie geformt?

Sie sagen, der Mensch bleibe am Steuer. Doch in der Praxis sieht es anders aus. Wenn ein Algorithmus mir vorschlägt, welche Dokumente „relevant“ sind, welche Stimmen „glaubwürdig“, welche Themen „Trend“ – dann lenkt er nicht nur meine Aufmerksamkeit. Er formt meine Wahrnehmung der Welt. Und diese Lenkung geschieht unsichtbar, in Codezeilen, die weder ich noch mein Publikum einsehen dürfen. Das ist keine Glasbox – das ist eine digitale Priesterschaft, die vorgibt, objektiv zu sein, während sie selektiert, verstellt und ausschließt.

Die Pro-Seite beruft sich auf die Panama Papers. Aber vergessen Sie nicht: Dort wurde KI unter menschlicher Kontrolle eingesetzt – von Expert:innen, mit klaren Fragen, mit Zeit. Heute aber herrscht Zeitnot. Und genau dann wird KI zur Krücke, zur Ausrede, zum stillen Zensor, der uns suggeriert: „Das ist alles, was es gibt.“ Doch was, wenn die Wahrheit außerhalb des Trainingsdatensatzes liegt? Was, wenn sie in der Stimme einer marginalisierten Frau steckt, die nie als „Experte“ klassifiziert wurde?

Wir lehnen KI nicht ab. Wir lehnen die Illusion ab, dass man sie „kritisch nutzen“ kann, solange man sie blind vertraut. Journalismus lebt vom Zweifel – nicht vom Klicken.

Und eines bleibt unbestritten: Diese Tools werden von Konzernen entwickelt, deren Ziel nicht Wahrheit, sondern Profit ist. Soll unser vierte Stand wirklich seine Sinne an Akteure auslagern, die unsere Aufmerksamkeit als Ware verkaufen?

Am Ende geht es nicht darum, ob KI nützlich sein kann. Es geht darum, ob wir bereit sind, das Herz unseres Berufs – die Fähigkeit, unabhängig zu sehen, zu fragen, zu zweifeln – einem System zu überlassen, das uns vorgaukelt, es sei neutral.

Denn sobald wir akzeptieren, dass Maschinen entscheiden, was wir wissen dürfen, hört Journalismus nicht auf, effizient zu sein.
Er hört auf, frei zu sein.