Whitebird
X (Twitter) priorisiert Copyright-Verstöße statt Opferschutz
Mike Faust, 09. Oktober 2024, 11:43 Uhr
Nicht einvernehmlich veröffentlichte Nacktbilder werden von X in den USA schneller entfernt, wenn sie als Urheberrechtsverletzung gemeldet werden.
Werden Nacktbilder als Urheberrechtsverletzung bei X gemeldet, reagiert der Kurznachrichtendienst deutlich schneller als bei Meldungen von nicht einvernehmlich veröffentlichten intimen Darstellungen.
Forscher der Universität von Michigan haben in einer noch nicht unabhängig begutachteten Studie 50 KI-generierte Nacktbilder auf X veröffentlicht und anschließend jeweils die Hälfte als Urheberrechtsverletzung und als nicht einvernehmlich veröffentlichte intime Darstellung gemeldet.
Innerhalb von 25 Stunden entfernte X alle Bilder, die als Urheberrechtsverletzung gemeldeten wurden. Die als nicht einvernehmliche intime Darstellung gemeldeten Beiträgen waren hingegen nach drei Wochen noch online und die Accounts, von denen diese gepostet wurden, erhielten weder eine Benachrichtigung von X über den gemeldeten Inhalt noch mussten sie andere Konsequenzen tragen.
Das Ergebnis der Studie sehen die Forscher als Bestätigung dafür, dass es eine deutlich bessere Gesetzgebung benötigt, um Social-Media-Unternehmen zu einer schnellen Bearbeitung von nicht einvernehmlich veröffentlichten und Deep-Fake-Inhalten zu zwingen.
EU-Regelungen als Vorbild
Der Digital Millennium Copyright Act (DMCA) schreibt Online-Plattformen in den USA vor, dass diese Meldungen zu urheberrechtlich geschütztem Material unverzüglich bearbeiten müssen. Ähnliche Gesetze gegen Deepfakes gibt es bislang nur in einzelnen Bundesstaaten der USA und somit existiert keine eindeutige rechtliche Grundlage, die X zur schnellen Bearbeitung solcher Inhalte zwingt.
Nicht jedes Opfer von nicht einvernehmlichen veröffentlichten Inhalten kann sich auf das DMCA berufen, da Fotos vom Fotografen als urheberrechtlich geschützt betrachtet werden, erläutern die Forscher. Nur wenn die Opfer selbst das Urheberrecht an entsprechenden Aufnahmen besitzen, können sie sich auf den DMCA berufen. Dieses deckt allerdings keine Aufnahmen ab, die von anderen Personen angefertigt wurden und ein entsprechender Antrag kann mit hohen Kosten verbunden sein, die für Einzelpersonen schnell unbezahlbar sein können, erklären die Forscher weiter.
Ein Gesetz, das den Umgang mit nicht einvernehmlich veröffentlichten Medien regelt, muss "die Rechte von Opfern und Überlebenden klar definieren und Plattformen gesetzlich dazu verpflichten, schädliche Inhalte schnell zu entfernen", schreiben die Forscher. Als gutes Modell nennen sie die Datenschutzbestimmungen der Europäischen Union, in denen ihrer Meinung nach der Datenschutz und die Zustimmung jedes einzelnen Nutzers wichtige Schritte nach vorne darstellen.
In der EU ist ein Gesetz in Arbeit, das Betroffene besser vor digitalen Übergriffen schützen soll und sowohl nicht einvernehmlich veröffentlichte Darstellungen als auch Deepfakes abdecken soll.
quelle: golem.de
Mike Faust, 09. Oktober 2024, 11:43 Uhr
Nicht einvernehmlich veröffentlichte Nacktbilder werden von X in den USA schneller entfernt, wenn sie als Urheberrechtsverletzung gemeldet werden.
Werden Nacktbilder als Urheberrechtsverletzung bei X gemeldet, reagiert der Kurznachrichtendienst deutlich schneller als bei Meldungen von nicht einvernehmlich veröffentlichten intimen Darstellungen.
Forscher der Universität von Michigan haben in einer noch nicht unabhängig begutachteten Studie 50 KI-generierte Nacktbilder auf X veröffentlicht und anschließend jeweils die Hälfte als Urheberrechtsverletzung und als nicht einvernehmlich veröffentlichte intime Darstellung gemeldet.
Innerhalb von 25 Stunden entfernte X alle Bilder, die als Urheberrechtsverletzung gemeldeten wurden. Die als nicht einvernehmliche intime Darstellung gemeldeten Beiträgen waren hingegen nach drei Wochen noch online und die Accounts, von denen diese gepostet wurden, erhielten weder eine Benachrichtigung von X über den gemeldeten Inhalt noch mussten sie andere Konsequenzen tragen.
Das Ergebnis der Studie sehen die Forscher als Bestätigung dafür, dass es eine deutlich bessere Gesetzgebung benötigt, um Social-Media-Unternehmen zu einer schnellen Bearbeitung von nicht einvernehmlich veröffentlichten und Deep-Fake-Inhalten zu zwingen.
EU-Regelungen als Vorbild
Der Digital Millennium Copyright Act (DMCA) schreibt Online-Plattformen in den USA vor, dass diese Meldungen zu urheberrechtlich geschütztem Material unverzüglich bearbeiten müssen. Ähnliche Gesetze gegen Deepfakes gibt es bislang nur in einzelnen Bundesstaaten der USA und somit existiert keine eindeutige rechtliche Grundlage, die X zur schnellen Bearbeitung solcher Inhalte zwingt.
Nicht jedes Opfer von nicht einvernehmlichen veröffentlichten Inhalten kann sich auf das DMCA berufen, da Fotos vom Fotografen als urheberrechtlich geschützt betrachtet werden, erläutern die Forscher. Nur wenn die Opfer selbst das Urheberrecht an entsprechenden Aufnahmen besitzen, können sie sich auf den DMCA berufen. Dieses deckt allerdings keine Aufnahmen ab, die von anderen Personen angefertigt wurden und ein entsprechender Antrag kann mit hohen Kosten verbunden sein, die für Einzelpersonen schnell unbezahlbar sein können, erklären die Forscher weiter.
Ein Gesetz, das den Umgang mit nicht einvernehmlich veröffentlichten Medien regelt, muss "die Rechte von Opfern und Überlebenden klar definieren und Plattformen gesetzlich dazu verpflichten, schädliche Inhalte schnell zu entfernen", schreiben die Forscher. Als gutes Modell nennen sie die Datenschutzbestimmungen der Europäischen Union, in denen ihrer Meinung nach der Datenschutz und die Zustimmung jedes einzelnen Nutzers wichtige Schritte nach vorne darstellen.
In der EU ist ein Gesetz in Arbeit, das Betroffene besser vor digitalen Übergriffen schützen soll und sowohl nicht einvernehmlich veröffentlichte Darstellungen als auch Deepfakes abdecken soll.
quelle: golem.de