3.7 Rechtliche und forschungsethische Herausforderungen

Die drei Sessions machen deutlich, dass die rechtlichen und forschungsethischen Herausforderungen in der Social-Media-Forschung zu Rechtsextremismus und Demokratie nicht als Rand- oder Zusatzthemen erscheinen, sondern den Kern der Forschungsbedingungen bestimmen. Sensible Inhalte, volatile Plattformregime, Bedrohungslagen für Forschende und rechtliche Ambiguitäten bilden ein dichtes Problemfeld, das alle Projekte – unabhängig von methodischem Ansatz oder institutioneller Einbindung – gleichermaßen betrifft.

Recht auf Vergessen, Löschlogiken und situierte Verantwortung

Ein zentraler Punkt betrifft den Umgang mit ephemeren, schnell verschwindenden Inhalten und dem Recht auf Vergessen. Julia Bee betont, dass Kurzlebigkeit nicht nur eine technische Herausforderung sei, sondern unmittelbar rechtsethische Fragen aufwirft: „Das Recht auf Vergessen, gerade bei diesen kurzlebigen Formaten, ist etwas, das im Forschungsdesign immer mitbedacht werden sollte.“ Sie unterstreicht die Notwendigkeit, insbesondere bei Kommentaren, kleinen Accounts und wenig sichtbaren Nutzer:innen sensibel und kontextspezifisch vorzugehen, Identifizierbarkeit zu vermeiden und situativ abzuwägen, welche Inhalte archiviert oder dokumentiert werden dürfen – und wann eine Archivierung nicht angemessen ist. Der Umgang mit Screenshots, sichtbaren Profilen oder Klarnamen wird damit zu einem kontinuierlichen und häufig belastenden Aushandlungsprozess, der auf situativer Verantwortung, Einschätzungsvermögen und einem reflektierten Verhältnis zwischen Forschungsinteresse und Persönlichkeitsrechten basiert.

Gefährdung von Forschenden und Schutzanforderungen

Die Sessions zeigen eindrucksvoll, dass Forscher:innen, die mit extremistischen und demokratiefeindlichen Inhalten arbeiten, nicht nur wissenschaftlich, sondern auch persönlich vulnerabel sind. Sandra Pilipets verweist darauf, dass Daten aus solchen Projekten „potenziell von Gruppen verwendet werden können, die Schaden anrichten“ und Forschungsgruppen damit in ein erhöhtes Bedrohungsumfeld geraten. Zugleich verdeutlicht sie, dass neue Regime wie der Digital Services Act (DSA) zwar privilegierte Datenzugänge für sogenannte Vetted Researchers eröffnen, Forschende damit aber zugleich öffentlich markiert werden – eine Sichtbarkeit, die im Bereich der Extremismusforschung eine zusätzliche Angriffsfläche schaffen kann. Diese Einschätzung zielt weniger auf den Wortlaut des Gesetzes als auf die damit verbundenen praktischen und reputativen Risiken ab.

Steffen Albrecht konkretisiert die Gefährdungslage anhand der internen Projektpraxis. Bereits zu Projektbeginn habe sein Team prüfen müssen, ob die Einbindung studentischer Hilfskräfte angesichts der potenziellen Sichtbarkeit und des Umgangs mit toxischen Inhalten ethisch verantwortbar sei: „Ob wir eine stärkere Einbindung studentischer Hilfskräfte überhaupt verantworten können […], weil das natürlich eine Markierung als potenzielles Ziel ermöglicht, muss äußerst kritisch evaluiert werden.“ Neben der externen Bedrohung betont er die psychische Belastung durch wiederholte Konfrontation mit Gewaltpropaganda, Hassrede und extremistischen Bildwelten. Er fordert deshalb institutionelle Schutzmaßnahmen – Schulungen, Awareness-Formate, psychologische Unterstützung und klare interne Protokolle.

Auch Pascal Siegers liefert wichtige Ergänzungen aus der ersten Session. Er hebt hervor, dass Schadensvermeidung nicht nur die untersuchten Personen betrifft, sondern explizit auch die Forschenden selbst: „Schutz der Forschenden ist ein riesiges Thema […] und die Universitäten und Forschungsinstitute sind da richtig blank.“ Der rechtliche Hebel des „öffentlichen Interesses“ könne datenschutzrechtliche Bearbeitung extremistischer Inhalte zwar legitimieren, löse aber nicht die praktische Frage, wie Forschende vor Angriffen, digitaler Belästigung oder Retraumatisierung geschützt werden. Siegers fordert deshalb eine systematische Stärkung institutioneller Sicherheitsarchitekturen, die über juristische Legitimierung hinausgehen und konkrete Schutzmechanismen etablieren.

Gemeinsam machen diese Beiträge sichtbar, dass Gefährdungslagen im Feld der Rechtsextremismusforschung multiskalar sind: Sie entstehen durch externe Angriffe, durch inhärent belastendes Datenmaterial, durch regulatorische Sichtbarkeitszuwächse und durch den Mangel an institutionellen Schutzstrukturen. Eine nachhaltige Forschungspraxis muss diese mehrdimensionale Vulnerabilität ernst nehmen und entsprechende organisatorische, psychologische und technische Schutzmaßnahmen fest verankern.

Datenzugang, Anonymisierung, Teilen von Daten und regulative Ambiguitäten

Steffen Albrecht beschreibt detailliert, dass selbst grundlegende Anonymisierungsprozesse enorme Aufwände verursachen. Während Nutzernamen formal leicht pseudonymisiert werden können, müssen Kommentare, Verlinkungen, Profilmetadaten oder Screenshots manuell auf personenbezogene Spuren geprüft werden: „Der Aufwand der Anonymisierung ist erheblich“. Die Heterogenität der Daten – Text, Bild, Audio, Netzwerke – verstärkt das Problem. Hoffnung richtet sich auf KI-gestützte Tools, die künftig automatisch sensible Informationen erkennen und entfernen könnten.

Elena Pilipets betont zudem, dass gerade im Bereich Rechtsextremismus nicht alle Daten – selbst in anonymisierter Form – bedenkenlos geteilt werden sollten. Dies steht in Spannung zu Open-Science-Ansprüchen und macht deutlich, dass Datentransparenz und Schadensminimierung in diesem Feld immer neu gegeneinander abgewogen werden müssen.

Regulatorische Unsicherheiten und Plattformpolitik

In allen Sessions wird deutlich, dass Forscher:innen in einem von rechtlichen Graubereichen geprägten Feld arbeiten. Regime wie DSGVO und DSA sind im Wandel, und ihre Anwendung auf Social-Media-Daten – insbesondere in Extremismuskontexten – bleibt ambig.

Hinzu kommt die Intransparenz der Plattformen: Löschlogiken, Moderationspraktiken, API-Beschränkungen oder Shadowbanning entscheiden darüber, welche Inhalte verfügbar sind oder verschwinden. Dies wirft grundlegende Fragen auf: Welche Daten dürfen gespeichert werden? Sind gelöschte Inhalte archivierbar? Wer trägt Verantwortung im Grenzbereich zwischen Plattformrecht und Forschungsfreiheit?

Zusammenfassung

Rechtliche und forschungsethische Herausforderungen erscheinen in den Sessions als eng miteinander verschränkte Problemfelder. Sie betreffen:

  • die Schutzbedürftigkeit von Forschenden, besonders im Bereich extremistischer Inhalte,
  • die ethische Verantwortung gegenüber betroffenen Personen,
  • die Anonymisierung komplexer multimodaler Daten,
  • die Ambivalenz des Datenteilens,
  • die Unklarheit rechtlicher Rahmenbedingungen (DSA, DSGVO),
  • und die Intransparenz der Plattformen, die Löschung, Moderation und Archivierung steuern.

Gemeinsam zeichnen sie ein Feld, in dem rechtliche Sicherheit nur selten erreichbar ist und in dem Forschungspraxis unweigerlich im Modus des situativen Abwägens operiert. Social-Media-Forschung zu Rechtsextremismus und Demokratie muss daher nicht nur methodische und technische Expertise besitzen, sondern auch eine ausgeprägte ethische Urteilskraft, eine robuste strategische Sicherheitskultur und eine institutionelle Einbettung, die Forscher:innen wie beforschte Personen gleichermaßen schützt.