Menu

Hass überall?

Wie Hate Speech den demokratischen Diskurs vergiftet

Hassrede ist längst kein Randphänomen mehr. Auf Social Media, in politischen Debatten und sogar in den Unterhaltungsmedien sind Beleidigung, Diffamierung und aggressive Tonlagen allgegenwärtig. Doch welche Auswirkungen hat das auf die demokratische Streitkultur und den gesellschaftlichen Zusammenhalt? Und welche Rolle spielt Künstliche Intelligenz bei der Verbreitung von Hate Speech? Diese Fragen haben Medienethikerinnen und -ethiker bei der Tagung "Zwischen Hassrede, Framing und generativer Künstlicher Intelligenz: Medien und Sprache aus ethischer Perspektive" der Akademie für Politische Bildung, der Fachgruppe Kommunikations- und Medienethik der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK), dem Zentrum für Ethik der Medien und der digitalen Gesellschaft (ze:mdg), dem Netzwerk Medienethik und der Hochschule Darmstadt diskutiert.

Tutzing / Tagungsbericht / Online seit: 19.03.2025

Von: Rebecca Meyer / Foto: Rebecca Meyer

Programm: Zwischen Hassrede, Framing und generativer Künstlicher Intelligenz: Medien und Sprache aus ethischer Perspektive

Zwischen Hassrede, Framing und generativer Künstlicher Intelligenz: Medien und Sprache aus ethischer Perspektive

Flickr-Galerie © Akademie für Politische Bildung Tutzing. Bitte klicken Sie auf das Foto, falls die Galerie nicht lädt. Sie werden zu Flickr weitergeleitet.

"Wir werden sie jagen, wir werden Frau Merkel oder wen auch immer jagen – und wir werden uns unser Land und unser Volk zurückholen." Mit diesen Worten kündigte AfD-Politiker Alexander Gauland nach der Bundestagswahl 2017 die Oppositionspolitik seiner Partei an. Seine Äußerung stehe exemplarisch für eine politische Rhetorik, die nicht nur schärfer, sondern auch radikaler geworden ist. Diese Entwicklung sei kein Einzelfall, sondern Teil einer breiteren Veränderung im öffentlichen Diskurs, sagt Olaf Jandura von der Heinrich-Heine-Universität Düsseldorf. Er erklärt, dass sich die Grenzen des Sagbaren in den vergangenen Jahren spürbar verschoben haben. Während politische Auseinandersetzungen früher stärker von Sachdebatten geprägt gewesen seien, würden heute zunehmend persönliche Angriffe, gezielte Provokationen und populistische Zuspitzungen dominieren. Diese Verschiebung zeigt sich nicht nur in der politischen Rhetorik, sondern auch in der zunehmenden Verbreitung von Hassrede. Die Landeszentrale für politische Bildung Baden-Württemberg definiert Hassrede (engl. Hate Speech) als gezielte Abwertung und Diskriminierung von Einzelpersonen oder Gruppen – zum Beispiel aufgrund von Merkmalen wie Herkunft, Religion, sozialer Zugehörigkeit, sexueller Orientierung oder Geschlecht. Wie weitreichend diese Entwicklung ist, zeigt die Studie 'Lauter Hass – leiser Rückzug' aus dem vorherigen Jahr: Fast jede zweite Person (49 %) wurde schon einmal online beleidigt. Zudem führe die Angst vor Anfeindungen dazu, dass sich viele Menschen zurückhalten: Mehr als die Hälfte der Befragten äußert ihre politische Meinung seltener öffentlich (57 %), beteiligt sich weniger an Diskussionen (55 %) oder formuliert Beiträge vorsichtiger (53 %). Was bedeutet diese Veränderung für die demokratische Streitkultur? Darüber sprachen Expertinnen und Experten aus Kommunikations- und Medienwissenschaft, Ethik und Medienpraxis bei der Tagung "Zwischen Hassrede, Framing und generativer Künstlicher Intelligenz: Medien und Sprache aus ethischer Perspektive" der Akademie für Politische Bildung, der Fachgruppe Kommunikations- und Medienethik der DDGPuK, dem ze:mdg, dem Netzwerk Medienethik und der Hochschule Darmstadt.

Die Grenzen des Sagbaren

Die Verrohung der Sprache sei besonders in digitalen Räumen zu beobachten, erklärt Jandura. Social Media verstärke Konflikte, da die Algorithmen zugespitzte und emotionale Inhalte bevorzugen würden. Aber auch klassische Medien seien an der Normalisierung radikaler Sprache beteiligt. Indem sie kontroverse Aussagen immer wieder aufgreifen und diskutieren, würden sie deren Sichtbarkeit erhöhen und ihnen dadurch mehr Gewicht im öffentlichen Diskurs verleihen. Radikale Rhetorik werde so nicht nur weiterverbreitet, sondern könne mit der Zeit als legitimer Teil politischer Auseinandersetzungen wahrgenommen werden. 

Jandura betont zudem, dass nicht alle gesellschaftlichen Gruppen die sprachliche Verrohung auf die gleiche Weise wahrnehmen würden. Während einige eine scharfe Rhetorik als Ausdruck politischer Klarheit und notwendige Zuspitzung verstünden, empfänden andere sie gar als gezielte Strategie zur Diskreditierung oder Bedrohung des Gesprächspartners. Diese unterschiedlichen Wahrnehmungen könnten dazu beitragen, dass sich die gesellschaftlichen Lager weiter voneinander entfernten und ein gemeinsamer Diskursraum verloren gehe.

Dabei sei zugespitzte Sprache nicht per se problematisch – sie gehöre zur politischen Auseinandersetzung dazu. Bedenklich sei jedoch, wenn politische Sprache nicht mehr auf Argumente ziele, sondern darauf, den Gegner moralisch abzuwerten oder gar als Bedrohung darzustellen.

"Trash-TV" als Bühne für Hassrede

Nicht nur in der Politik, sondern auch in Unterhaltungsformaten seien aggressive Wortgefechte längst ein etabliertes Muster, erklärt Stefan Kosak vom ze:mdg. Gemeinsam mit Claudia Paganini von der Universität Innsbruck hat er die Rolle von Hate Speech im sogenannten Trash-TV untersucht. Trash-TV bezeichnet Reality-Formate, die gezielt auf Drama, Konflikte und Provokationen setzen. Während Sendungen wie 'Das Sommerhaus der Stars' oder 'Temptation Island' für die öffentliche Zurschaustellung von Beleidigungen und Diskriminierung kritisiert werden, zeigt Kosak, dass dort nicht nur sprachliche Verrohung stattfinde. Auf den ersten Blick dominierten Beleidigungen und verbale Entgleisungen. Bei näherer Betrachtung würden in den Auseinandersetzungen der Teilnehmenden aber zugleich moralische Prinzipien verhandelt. Das äußere sich darin, dass sich die Teilnehmenden in Streitigkeiten immer wieder auf Werte wie Respekt, Ehrlichkeit oder Loyalität beriefen. Die Studie zeigt zudem, dass Hassrede in "Trash-TV"-Formaten oft nicht allein aus Boshaftigkeit oder zur Steigerung der Einschaltquoten entstehe, sondern aus dem Bedürfnis der Sprechenden, die eigene moralische Position zu verteidigen. Gerade in den sogenannten 'Wiedersehensfolgen' der Trash-TV Formate, in denen frühere Auseinandersetzungen reflektiert werden, werde deutlich, dass es den Beteiligten häufig darum gehe, sich in einem moralischen Diskurs zu positionieren. Hassrede sei in diesem Kontext nicht nur Ausdruck von Aggression, sondern auch eine Reaktion auf die Infragestellung grundlegender Überzeugungen.

Diese Erkenntnis lasse sich möglicherweise auch auf gesellschaftliche Debatten übertragen. Wenn moralische Empörung selbst zur Verrohung der Sprache beitrage, müsse über neue Strategien im Umgang mit Hate Speech nachgedacht werden, sagt Kosak. Hassrede könne in bestimmten Kontexten nicht nur destruktiv, sondern auch Ausdruck tieferliegender Wertekonflikte sein. Gleichzeitig müsse jedoch berücksichtigt werden, dass sie in anderen Fällen gezielt eingesetzt werde, um bestimmte Gruppen zu diskriminieren oder zu marginalisieren. Dieses differenzierte Verständnis könne helfen, gesellschaftliche Auseinandersetzungen konstruktiver zu gestalten – mit Kritik, aber ohne gegenseitige Abwertung.

KI zur Verbreitung von Hass

Mittlerweile sei Hate Speech aber nicht mehr nur eine Frage zwischenmenschlicher Kommunikation – auch Künstliche Intelligenz verändere die Art und Weise, wie sie entsteht und verbreitet wird. Während Hassrede lange als rein menschliches Phänomen galt, ermögliche KI inzwischen, solche Inhalte gezielt zu generieren und zu streuen, erklärt Bernhard Debatin von der Ohio University. Er verweist auf aktuelle Beispiele, in denen Gruppen generative KI nutzten, um Musik mit rechtsextremen Texten zu erstellen. Auf der Musikplattform Suno gebe es über 1000 KI-generierte Hate-Songs, in denen rassistische, antisemitische und misogyne Aussagen, sowie Verschwörungsmythen transportiert würden. Die Filter, die dies eigentlich verhindern sollen, ließen sich jedoch durch geschickte Prompts umgehen.

Debatin weist außerdem auf die Gefahren sogenannter 'Dog Whistle Politics' hin. Dabei würden politische Botschaften so formuliert, dass sie für die allgemeine Öffentlichkeit harmlos klingen, aber für eine bestimmte Zielgruppe eine versteckte, oft extremere oder polarisierende Bedeutung haben. Die Bezeichnung 'Dog Whistle Politics' lehnt sich an Hundepfeifen an, deren Töne für Menschen unhörbar sind – ähnlich wie diese Botschaften, die für eine bestimmte Zielgruppe eine versteckte Bedeutung tragen, während sie für Außenstehende unauffällig seien. Diese Taktik werde zunehmend mit Künstlicher Intelligenz kombiniert, wodurch die Verbreitung von Hassrede effizienter und schneller erfolge. Auch deshalb brauche es nicht nur eine stärkere Regulierung solcher Plattformen, sondern auch ein kritisches Bewusstsein für den Umgang mit KI-generierten Inhalten, fordert Debatin. Denn die Technologie werte allein danach, was eine hohe Reichweite erzeugen kann/ wird, sagt der Medienethiker. Im digitalem Raum seien das vor allem polarisierende und provokante Inhalte. Die KI verstärke also genau diese potenziell destruktiven Dynamiken, statt sie zu brechen.

In einer Zeit, in der Künstliche Intelligenz und Social Media Hassrede immer stärker befeuern, wird klar: Nur wenn wir diese Phänomene besser verstehen, können wir auch die demokratische Streitkultur wieder verbessern. Die Frage ist nicht, ob man streitet, sondern wie.

Kontakt
Weitere News

Debatten im Schnelldurchlauf
Warum die politische Kultur an Tiefgang verliert


Philosophie in der Öffentlichkeit
Workshop "Schreiben für philosophische Blogs"


Seelische Selbstvergiftung
Das Ressentiment und seine Entmachtung


Barbara Bleisch und die "Mitte des Lebens"
Philosophin lädt zum Nachdenken über die vielleicht besten Jahre ein


Erkundungen der Utopie
Thomas Schölderle veröffentlicht zwei neue Bücher