this post was submitted on 31 Jan 2025
19 points (95.2% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2321 readers
467 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 7 months ago
MODERATORS
 

Die italienische Datenschutzbehörde (GPDP) hat den chinesischen Unternehmen hinter dem KI-Programm Deepseek faktisch die Nutzung von Daten in Italien untersagt. Die Beschränkung sei den Firmen Deepseek Artificial Intelligence und Beijing Deepseek Artificial Intelligence „dringend und mit sofortiger Wirkung“ auferlegt worden, erklärte die GPDP am Donnerstag. Zugleich seien Ermittlungen gegen die Firmen aufgenommen worden.

Am Mittwoch hatte die GPDP nach eigenen Angaben bei den Unternehmen angefragt, welche personenbezogenen Daten sie bei italienischen Nutzern sammelten. Die Antwort der Firmen hierauf sei „völlig unzureichend“, daher sei die Beschränkung gegen die Deepseek-Betreiber verfügt worden. Ziel sei es, „die Daten italienischer Nutzer zu schützen“.

[...]

Die italienische Datenschutzbehörde hatte im Jahr 2023 bereits gegen das US-KI-Unternehmen OpenAI wegen dessen Programm ChatGPT Ermittlungen eröffnet. Im Dezember 2024 schloss sie diese ab und verhängte unter anderem eine Geldbuße in Höhe von 15 Millionen Euro gegen OpenAI. Das Unternehmen hat angekündigt, die Maßnahme vor Gericht anfechten zu wollen.

you are viewing a single comment's thread
view the rest of the comments
[–] merari42@lemmy.world 3 points 10 hours ago (1 children)

Man trainiert ein Modell mit weniger Parametern um ein Modell mit vielen Parametern zu imitieren. Führt zu Leistungsverlusten bei der Ausgabequalität, aber braucht dann weniger Ressourcen beim Ausführen und funktioniert einigermaßen so wie das Ursprungsmodell in schlechter. Modelle mit 1 -15 Mrd. Parametern laufen auf einem gängigen modernen Laptop. Aber einige Modelle aus denen solche kleinen Modelle distilled wird sind viel größer (zum Beispiel , Deepseek R1 mit 640 Mrd. Parametern) und brauchen hunderte Gigabyte (Video-)RAM um laufen zu können.

[–] bungalowtill@lemmy.dbzer0.com 1 points 6 hours ago

Danke für die Erklärung. Verstehe