Die künftigen Herausforderungen der Social-Media-Forschung im Bereich Rechtsextremismus und Demokratie liegen weniger in technischen Aspekten als in tiefgreifenden strukturellen und epistemischen Spannungsfeldern. Drei Themen treten dabei besonders hervor: die zunehmende Vulnerabilität von Forschenden, die wachsende Unsicherheit im Umgang mit KI-generierten Inhalten und die Abhängigkeit von Plattformen, die über Sichtbarkeit, Datenverfügbarkeit und Löschlogiken entscheiden.
Ein zentraler Punkt ist die Gefährdung von Forschenden, insbesondere in Projekten mit extremistischen Inhalten. Elena Pilipets betont bereits am Anfang ihrer Antwort, dass im Feld „Ethics of Care“ unabdingbar wird, da Daten aus diesen Projekten „potenziell von Gruppen verwendet werden können, die Schaden anrichten“ und damit unmittelbar das Forschungsumfeld berühren. Die Risiken verschärfen sich zusätzlich durch den europäischen Rechtsrahmen: Pilipets verweist auf den Status der Vetted Researchers im DSA (Digital Service Act), der zwar privilegierten Zugang verspricht, Forschende in sensiblen Bereichen jedoch „potenziell angreifbar“ mache.
Auch Steffen Albrecht unterstreicht, wie sehr die Zukunftsfähigkeit des Feldes davon abhängt, Forscher:innen aktiv zu schützen. Er nimmt Bezug auf Fälle, in denen studentische Hilfskräfte ohne ausreichende Schutzmechanismen mit expliziter Gewaltverherrlichung konfrontiert wurden, und fordert, dass zukünftige Forschung solche Risiken „proaktiv mitdenken“ müsse, nicht nur für die Datenauswahl, sondern auch für Team-Strukturen und psychologische Sicherheit.
Die zunehmende Vermischung von authentischen und KI-erzeugten Inhalten wird in verschiedenen Antworten ebenfalls als zunehmende Herausforderung identifiziert. Vor allem Steffen Albrecht hebt hervor, dass diese Problematik zwar „bei jedem Thema anbringbar“ sei, aber in der Extremismusforschung besondere Brisanz besitzt: In Zukunft muss systematisch geklärt werden, wie man KI-generierte Beiträge offenlegt, von Nutzer:innen-Inhalten trennt und Verzerrungen im Datenkorpus vermeidet. Damit verweist er auf ein wachsendes Problem epistemischer Unschärfe, das alle Social-Media-Forschung betrifft, aber in hochsensiblen Kontexten besonders gravierende Folgen haben kann.
Hinzu kommt die Macht der Plattformen, deren Entscheidungen über Löschung, Sichtbarkeit und Zugang maßgeblich bestimmen, welche Daten überhaupt für Forschung und Archivierung verfügbar sind. Pilipets benennt die Grundproblematik: Ohne transparente Plattformlogiken bleibt unklar, welche Inhalte verschwinden, welche archiviert werden können und welche epistemischen Lücken entstehen. Ihr Plädoyer richtet sich daher auf „situierte Methoden“, die sich nicht vom Fetisch großer Daten leiten lassen, sondern auf konkrete Forschungsfragen reagieren.
Schließlich tritt in allen drei Sessions die Frage auf, wie mit der zunehmenden Unsicherheit und rechtlichen Komplexität (DSA, DSGVO, Plattformrichtlinien) umzugehen ist. Die Herausforderungen der nächsten Jahre liegen weniger in einzelnen Regelwerken als in der Tatsache, dass diese Regime kontinuierlich im Wandel sind und Forscher:innen immer wieder neu vor Ambiguitäten stellen: Was darf erhoben werden? Was darf geteilt werden? Wie lassen sich Langzeitarchive verantwortungsvoll gestalten?
Insgesamt zeigen die Sessions, dass die zukünftigen Herausforderungen nicht primär technischer Natur sind, sondern in der wachsenden Vulnerabilität, regulatorischen Fluidität, epistemischen Unsicherheit und intransparenten Plattformpolitik liegen. Social-Media-Forschung im Bereich Rechtsextremismus und Demokratie muss daher verstärkt auf Schutz, Verantwortlichkeit, methodische Reflexivität und flexible Archivierungsstrategien setzen.