Das EU-Gesetz über digitale Dienste: Zukünftige Chancen und Herausforderungen
Ein Gespräch mit Oliver Marsh von AlgorithmWatch


Die Europäische Union hat das Gesetz über digitale Dienste 2022 verabschiedet. Es soll die Nutzung von Online-Diensten insgesamt transparenter und sicherer machen. Die EU-Mitgliedstaaten sind dazu verpflichtet, ab dem 17. Februar 2024 für die Umsetzung des Gesetzes zu sorgen – unter anderem durch die Koordinierungsstellen für digitale Dienste, die dann eingerichtet werden sollen. Oliver Marsh, leitet das von der Alfred Landecker Foundation geförderte Projekt "Algorithmen auf systemische Risiken prüfen". Im folgenden Interview erklärt er, warum es noch Probleme mit der Umsetzung gibt, welche Pflichten das neue Gesetz mit sich bringt und welche Rolle unseren Partnern von AlgorithmWatch dabei zukommt.


Der DSA wurde im Jahr 2022 erlassen und ist seit Januar 2024 rechtsverbindlich. Am 17. Februar wird die Einrichtung den nationalen Koordinatoren, die für die Durchsetzung der Richtlinie in den einzelnen EU-Mitgliedstaaten sorgen, rechtlich in Kraft treten. Was heißt das ganz allgemein? Welche Folgen können wir erwarten und welche Bedeutung hat das für Ihre Arbeit bei AlgorithmWatch?

Das Gesetz über digitale Dienste (Digital Services Act, DSA) ist die neue EU-Verordnung zum Umgang mit den Risiken, die Online-Plattformen und Suchmaschinen mit sich bringen. Obwohl der DSA bereits im vergangenen Jahr in Kraft getreten ist, wird die Arbeitsaufnahme der Koordinatoren für digitale Dienste in den Mitgliedstaaten eine Reihe von bisher inaktiven Bestimmungen des Gesetzes zum Tragen bringen – viele davon betreffen die Rechte von Bürgerinnen und Bürgern, Forschenden und der Zivilgesellschaft. Die bisherigen Bestimmungen des DSA waren recht undurchsichtig – so mussten die Plattformen beispielsweise Risikobewertungen durchführen, die aber nur die EU-Kommission einsehen durfte. Aber die Koordinatoren für digitale Dienste können nun beantragen, dass Ihnen Zugang zu internen Daten der Plattformen gewährt wird – interessanterweise auch im Namen von externen Forschenden, die sich mit systemischen Risiken in der EU befassen. Außerdem werden sie Systeme wie die „außergerichtliche Streitbeilegung“ und „vertrauenswürdige Hinweisgeber“ einführen, die es fairer und effektiver machen, bei den Plattformen Beschwerde einzulegen.

Wir von AlgorithmWatch setzen uns für eine Welt ein, in der unsere Technologien Gerechtigkeit, Demokratie und Nachhaltigkeit nicht schwächen, sondern stärken. Wir begrüßen die neuen Rechte der Bürgerinnen und Bürger und die neuen Befugnisse zur Kontrolle der Plattformen ausdrücklich. Trotz der Vorgaben des DSA haben wir den Eindruck, dass viele Koordinatoren für digitale Dienste am 17. Februar noch nicht einsatzbereit sein werden. So wird etwa in Deutschland die Bundesnetzagentur frühestens im April ihre rechtlichen Befugnisse als Koordinator für digitale Dienste erhalten. Es ist also völlig unklar, wie und wann die Bürgerinnen und Bürger sowie Forschende tatsächlich von ihren neuen Rechten Gebrauch machen können. Dies ist enttäuschend und auch besorgniserregend, wenn man bedenkt, dass diese Befugnisse bei den Europawahlen in den nächsten Monaten eine wesentliche Rolle spielen dürften.


2024 ist für viele Länder weltweit ein wichtiges Wahljahr, unter anderem in der EU und mehreren ihrer Mitgliedstaaten. Ein Großteil Ihrer Arbeit konzentriert sich auf die Entschärfung von Risiken für Demokratien, die von Algorithmen ausgehen. Worin bestehen diese Risiken? Wie kann Ihre Arbeit die Gefahren verringern und zu fairen und transparenten Wahlen beitragen?

Es gibt eine ganze Reihe von möglichen Risiken; einige davon sind weithin bekannt, andere weniger. Manche Leute machen sich Sorgen darüber, eine – vielleicht KI-generierte – Flut von gefälschten oder überzogenen Beiträgen in den sozialen Medien könnte den Nutzern gezielt Meinungen „einimpfen“, die ihre Wahlentscheidung beeinflussen. Ich habe gewisse Zweifel, was dieses Szenario betrifft. Man läuft Gefahr, die Wähler zu bevormunden und ihre wirklichen Sorgen zu ignorieren – aber das Szenario kann durchaus eintreten, insbesondere bei einem sehr knappen Wahlausgang. Ein weiteres Risiko besteht darin, dass glaubwürdige oder wahrheitsgemäße Inhalte schlicht von unsachlichen oder unwahren Meldungen übertönt werden. In unserer Studie zu KI-gesteuerten Nachrichten auf Bing Chat während der jüngsten Landtags- bzw. kantonalen Wahlen in Deutschland und der Schweiz etwa konnten wir beobachten, dass rund ein Drittel der Antworten unzutreffend waren.

Ein letztes und meiner Meinung nach bereits offensichtliches Risiko besteht darin, dass Wahlen stets von viel polarisierender Rhetorik begleitet sind – in den Mainstream-Medien, im Internet sowie in „Offline“-Gesprächen. Die Algorithmen der sozialen Medien, die vor allem auf eine immer intensivere Nutzerbindung ausgelegt sind, können diese polarisierenden Inhalte verstärken, was wiederum ein entsprechendes Verhalten in der Politik im Allgemeinen begünstigen kann.

Besonders schwierig ist daran Folgendes: Wenn auch nur eines dieser Probleme auftritt, haben wir uns zu sehr darauf verlassen, dass die Plattformen das Problem aus eigenem Antrieb lösen. Aber vielleicht wollen sie es gar nicht lösen, oder sie wissen nicht, wie es angehen sollten, oder sie sind ganz einfach schlecht vorbereitet. Der DSA zwingt die Plattformen zur Durchführung von Risikobewertungen und gibt – zumindest theoretisch – Außenstehenden viel mehr Kontroll- und Unterstützungsmöglichkeiten für bewährte Verfahren.



Was wollen Sie mit Ihrer Arbeit bei AlgorithmWatch in den nächsten Monaten erreichen?

Wir verfolgen zwei Hauptziele.

Erstens: Wir wollen die Bestimmungen des DSA nutzen, um unsere Forschungsarbeit voranzutreiben. Wenn wir dabei auf Schwierigkeiten stoßen, wollen wir entsprechende Änderungen anstoßen. Wir werden bei Microsoft einen Antrag auf Datenzugang stellen, um unser Bing-Forschungsprojekt zu vertiefen. Mit mehr „Insiderinformationen“ können wir das Ausmaß des Problems und die Wirksamkeit der Gegenmaßnahmen besser verstehen – hoffentlich noch vor den nächsten deutschen Landtagswahlen. Wir bauen auch eine „Risikodatenbank“ mit Beispielen für systemische Risiken auf, die seit Inkrafttreten des DSA beobachtet wurden, um die EU-Kommission bei der Analyse und Klärung des Konzepts des „systemischen Risikos“ zu unterstützen.

Zweitens: Wir wollen die Leute informieren und ihnen dabei helfen, die ihnen gemäß dem DSA zustehenden Rechte zu nutzen. Ich komme selbst aus der Forschung: Ich weiß, wie wichtig diese neuen Bestimmungen für den Zugang zu Daten sein können. Ich verstehe aber auch, wie schwierig es für Forschende ist, mit den politischen Veränderungen Schritt zu halten. Wir möchten Forschenden und anderen Personen dabei helfen, zu verstehen, wie sie ihr Recht auf Datenzugang und andere Bestimmungen des DSA nutzen können. Alle Leser, die sich angesprochen fühlen, können gerne Kontakt zu uns aufnehmen.


Was an den neuen Bestimmungen des DSA bzw. einem transparenten Umgang mit Algorithmen sollten die Leute Ihrer Meinung nach besser verstehen?

Diese Regeln sollen dafür sorgen, dass die Plattformen ihr Geschäft auf verantwortungsvolle Weise betreiben. Der DSA schreibt Plattformen und Suchmaschinen nicht vor, welche Inhalte sie aufnehmen dürfen und welche nicht (es sei denn, die Inhalte sind rechtswidrig). Das bedeutet nur, dass es für die Betreiber schwieriger ist, sich ihrer Verantwortung gegenüber den Nutzern und der Gesellschaft zu entziehen. Wenn Sie sich als Bürger bei den Plattformen beschweren, stehen Ihnen jetzt mehr Möglichkeiten zur Verfügung, um sicherzustellen, dass Ihre Beschwerde nicht einfach ignoriert wird. Oder wenn Sie als Forscher Zugang zu Daten erhalten wollen, und dabei auf Hindernisse stoßen, haben Sie jetzt weitere Abhilfemaßnahmen. Und wie bei jeder neuen Rechtsvorschrift wird es auch beim DSA eine Lernphase geben. Wenn die Leute jetzt anfangen, ihre Rechte auszuüben, könnte dies dazu beitragen, den großen bestehenden Bedarf aufzuzeigen und sinnvolle Verfahren für die Zukunft zu schaffen.


Mehr zu unserer Kooperation mit AlgorithmWatch hier.

Unsere Themen

Sich der Vergangenheit stellen

Antisemitismus bekämpfen

Minderheiten schützen

Demokratie sichern

Urteilskraft stärken

Auf Twitter teilen
Twitter
Auf Facebook teilen
Facebook
Per E-Mail teilen
Share-mail
Link kopieren
Link kopiert
Copy link
AlgorithmWatch
back arrow