Whitebird
Vom Piraten zum Verfechter des Urheberrechts
Deepseek soll sein KI-Modell aus denen von OpenAI destilliert haben – behauptet OpenAI und pocht scheinheilig auf das Urheberrecht.
Ein IMHO von
Johannes Hiltscher 29. Januar 2025, 13:25 Uhr
Nach dem Schock durch die jüngsten KI-Modelle des chinesischen Unternehmens Deepseek macht eine Reihe relativierender Erklärungen die Runde. Einige Argumente klingen wie Verschwörungstheorien.
Realistischer erscheint da OpenAIs Behauptung, Deepseek habe das Wissen seiner Modelle destilliert und damit sein geistiges Eigentum und die Nutzungsbedingungen verletzt. Dass sich das Unternehmen jetzt auf das Urheberrecht beruft, ist aber schlicht bigott.
Denn auch OpenAI nimmt Urheberrechtsverletzungen in Kauf, um an Trainingsdaten zu kommen. An einem effektiven Schutz Kreativer scheint das Unternehmen wenig interessiert, an der Verteidigung der eigenen Einnahmen – die auch mit umfangreichen Urheberrechtsverletzungen möglich sind – umso mehr. Ein paar Zugänge zur eigenen Programmierschnittstelle sind schließlich gesperrt.
Lernen auf Kosten von OpenAI
Um die Tragweite des Vorwurfs zu verstehen, müssen wir zunächst verstehen, was Wissensdestillation ist. Diese wird genutzt, um das in einem großen Modell codierte Wissen in ein kleineres mit weniger Gewichtsparametern zu überführen. Das Modell wird kompakter und die Trainingszeit sinkt deutlich.
Einen beträchtlichen Teil der Trainingszeit benötigt ein KI-Modell zunächst, um die Darstellung von Wissen, Konzepten und deren Zusammenhängen zu lernen. Zusätzlich muss es mit Unmengen an Daten gefüttert werden, um das Faktenwissen zu codieren. Das Modell muss zudem lernen, das Wissen für Menschen ansprechend und nachvollziehbar wiederzugeben.
Wissensdestillation kürzt die beiden letzten Schritte ab, indem das kleinere Modell lernt, die Ausgaben des größeren zu replizieren. Hier wollen einige Kommentatoren auffällige Ähnlichkeiten gefunden haben. Träfe das zu, hätte Deepseek in der Tat von OpenAIs Vorarbeit profitiert.
Ist das nicht schöpferische Zerstörung?
Für OpenAI ist es ohne Frage ein Problem, wenn andere Unternehmen dessen Arbeit nutzen, um mit geringerem Aufwand ein günstigeres Konkurrenzprodukt zu schaffen. Auch für die US-Wirtschaft sind die Kursverluste ein potenzieller Schaden. Für Kreative ist es aber ebenfalls ein Problem, wenn die KI-Riesen ungefragt und ohne Vergütung deren Werke nutzen. Das wird gern mit der schöpferischen Zerstörung relativiert, schließlich arbeiten OpenAI und andere KI-Unternehmen ja an der großen Sache, welche die Menschheit insgesamt nach vorn bringt.
Dasselbe könnte man über Deepseek sagen, wenn diese Behauptung zuträfe: Teilweise ist schon von einer weiteren Demokratisierung der KI zu lesen, da Fähigkeiten, die OpenAI bislang teuer verkaufte, nun zu geringeren Kosten und damit für mehr Menschen nutzbar sind.
Möglich, dass die Behauptung zutrifft. Deepseek macht keinerlei Angaben zu den verwendeten Trainingsdaten. Im Report zum V3-Modell ist lediglich von "qualitativ hochwertigen" Tokens die Rede, die für das Pre-Training verwendet wurden, mit 14,7 Milliarden sind es eher wenige. Vorerst liegen dafür keine nachprüfbaren Beweise vor, lediglich Indizien. Damit gilt bis auf weiteres: Im Zweifel für den Angeklagten.
Eine Zuordnung dürfte ähnlich schwierig sein wie die Attribuierung von Cyberangriffen. Selbst wenn sich herausstellt, dass Deepseek Modelle von OpenAI destillierte, sollten die Größen der KI-Branche das nicht einfach verurteilen und zum Tagesgeschäft übergehen. Und OpenAI sollte erst einmal gründlich vor der eigenen Tür kehren, anstatt ohne harte Beweise herumzupoltern.
quelle: golem.de
Deepseek soll sein KI-Modell aus denen von OpenAI destilliert haben – behauptet OpenAI und pocht scheinheilig auf das Urheberrecht.
Ein IMHO von
Johannes Hiltscher 29. Januar 2025, 13:25 Uhr
Nach dem Schock durch die jüngsten KI-Modelle des chinesischen Unternehmens Deepseek macht eine Reihe relativierender Erklärungen die Runde. Einige Argumente klingen wie Verschwörungstheorien.
Realistischer erscheint da OpenAIs Behauptung, Deepseek habe das Wissen seiner Modelle destilliert und damit sein geistiges Eigentum und die Nutzungsbedingungen verletzt. Dass sich das Unternehmen jetzt auf das Urheberrecht beruft, ist aber schlicht bigott.
Denn auch OpenAI nimmt Urheberrechtsverletzungen in Kauf, um an Trainingsdaten zu kommen. An einem effektiven Schutz Kreativer scheint das Unternehmen wenig interessiert, an der Verteidigung der eigenen Einnahmen – die auch mit umfangreichen Urheberrechtsverletzungen möglich sind – umso mehr. Ein paar Zugänge zur eigenen Programmierschnittstelle sind schließlich gesperrt.
Lernen auf Kosten von OpenAI
Um die Tragweite des Vorwurfs zu verstehen, müssen wir zunächst verstehen, was Wissensdestillation ist. Diese wird genutzt, um das in einem großen Modell codierte Wissen in ein kleineres mit weniger Gewichtsparametern zu überführen. Das Modell wird kompakter und die Trainingszeit sinkt deutlich.
Einen beträchtlichen Teil der Trainingszeit benötigt ein KI-Modell zunächst, um die Darstellung von Wissen, Konzepten und deren Zusammenhängen zu lernen. Zusätzlich muss es mit Unmengen an Daten gefüttert werden, um das Faktenwissen zu codieren. Das Modell muss zudem lernen, das Wissen für Menschen ansprechend und nachvollziehbar wiederzugeben.
Wissensdestillation kürzt die beiden letzten Schritte ab, indem das kleinere Modell lernt, die Ausgaben des größeren zu replizieren. Hier wollen einige Kommentatoren auffällige Ähnlichkeiten gefunden haben. Träfe das zu, hätte Deepseek in der Tat von OpenAIs Vorarbeit profitiert.
Ist das nicht schöpferische Zerstörung?
Für OpenAI ist es ohne Frage ein Problem, wenn andere Unternehmen dessen Arbeit nutzen, um mit geringerem Aufwand ein günstigeres Konkurrenzprodukt zu schaffen. Auch für die US-Wirtschaft sind die Kursverluste ein potenzieller Schaden. Für Kreative ist es aber ebenfalls ein Problem, wenn die KI-Riesen ungefragt und ohne Vergütung deren Werke nutzen. Das wird gern mit der schöpferischen Zerstörung relativiert, schließlich arbeiten OpenAI und andere KI-Unternehmen ja an der großen Sache, welche die Menschheit insgesamt nach vorn bringt.
Dasselbe könnte man über Deepseek sagen, wenn diese Behauptung zuträfe: Teilweise ist schon von einer weiteren Demokratisierung der KI zu lesen, da Fähigkeiten, die OpenAI bislang teuer verkaufte, nun zu geringeren Kosten und damit für mehr Menschen nutzbar sind.
Möglich, dass die Behauptung zutrifft. Deepseek macht keinerlei Angaben zu den verwendeten Trainingsdaten. Im Report zum V3-Modell ist lediglich von "qualitativ hochwertigen" Tokens die Rede, die für das Pre-Training verwendet wurden, mit 14,7 Milliarden sind es eher wenige. Vorerst liegen dafür keine nachprüfbaren Beweise vor, lediglich Indizien. Damit gilt bis auf weiteres: Im Zweifel für den Angeklagten.
Eine Zuordnung dürfte ähnlich schwierig sein wie die Attribuierung von Cyberangriffen. Selbst wenn sich herausstellt, dass Deepseek Modelle von OpenAI destillierte, sollten die Größen der KI-Branche das nicht einfach verurteilen und zum Tagesgeschäft übergehen. Und OpenAI sollte erst einmal gründlich vor der eigenen Tür kehren, anstatt ohne harte Beweise herumzupoltern.
quelle: golem.de