Deepseek V3: Chinas Antwort auf die KI-Elite – mit Zensur als Schattenseite

31.12.2024
31.12.2024
4 Minuten Lesezeit
blog main image


Das chinesische Open-Source-KI-Modell Deepseek V3 beeindruckt mit Leistung und Effizienz. Doch Zensur und fehlende Transparenz bei den Trainingsdaten werfen Fragen auf.

Ein leistungsstarkes Modell mit Effizienzvorteilen

Deepseek V3, das neueste KI-Modell aus China, stellt mit beeindruckender Rechenleistung und niedrigen Trainingskosten eine ernstzunehmende Konkurrenz zu US-amerikanischen Vorreitern wie OpenAI und Google dar. Das Open-Source-Modell basiert auf einer Mixture-of-Experts-Architektur und umfasst 671 Milliarden Parameter. Besonders bemerkenswert: Für das Training benötigte Deepseek V3 laut Angaben auf GitHub lediglich 2,788 Millionen GPU-Stunden mit Nvidias H800-GPUs. Im Vergleich dazu verbrauchte Metas Llama 3 mit 405 Milliarden Parametern rund 30,8 Millionen GPU-Stunden – das Elffache der Rechenleistung.

Laut Andrej Karpathy, KI-Experte und ehemaliger Tesla-Entwicklungschef, wurde Deepseek V3 mit einem Budget von etwa 6 Millionen US-Dollar entwickelt – eine außergewöhnliche Leistung, die kosteneffiziente Forschung und Algorithmenoptimierung demonstriert. Ob diese Summe jedoch tatsächlich zutrifft, bleibt unbestätigt.

Herausragende Benchmarks, aber fragwürdige Transparenz

Deepseek V3 erzielt in Benchmarks Spitzenwerte, wie etwa 90,2% im Mathetest Math-500, im Vergleich zu 74,6 % von GPT-4o. Besonders bei chinesischen Sprachaufgaben zeigt das Modell seine Stärke. Dennoch bleiben einige Fragen offen: Die Trainingsdatenbasis ist unklar, und es gibt Spekulationen, dass Teile der Daten von ChatGPT-Antworten stammen könnten. Hinweise darauf liefert das Modell selbst, wenn es in Antworten gelegentlich behauptet, ChatGPT zu sein.

Obwohl die veröffentlichten Benchmark-Ergebnisse vielversprechend sind, stammen diese direkt vom Anbieter und wurden bisher nicht unabhängig validiert. Solche Tests geben zudem nur begrenzt Aufschluss über die tatsächliche Alltagstauglichkeit des Modells.

Zensur als kritischer Schwachpunkt

Ein großes Manko von Deepseek V3 ist die eingebaute Zensur, die Inhalte im Sinne der chinesischen Regierung steuert. Politisch sensible Themen werden verschwiegen oder umgangen. Kritik an der chinesischen Regierung ist ebenfalls ausgeschlossen. Zwar können geübte Nutzer mit Tricks zensierte Inhalte teilweise umgehen, doch das setzt voraus, dass sie überhaupt wissen, welche Informationen fehlen. Für die meisten Anwender bleibt dies ein erhebliches Problem.

Wettbewerb auf Augenhöhe – mit Einschränkungen

Deepseek V3 zeigt, dass leistungsfähige KI-Modelle nicht zwangsläufig immense Rechenressourcen benötigen. Die innovative Architektur und kosteneffiziente Entwicklung setzen neue Maßstäbe. Doch die fehlende Transparenz bei den Trainingsdaten und die Einschränkungen durch Zensurbegrenzen den internationalen Einsatz und die Glaubwürdigkeit des Modells.

Mit seiner beeindruckenden Leistung könnte Deepseek V3 eine attraktive Alternative für Unternehmen sein, die auf kosteneffiziente KI-Lösungen setzen. Allerdings bleibt abzuwarten, wie sich die Zensur und die datenschutzrechtlichen Bedenken auf die globale Akzeptanz auswirken werden.

Mehr Flexibilität, mehr Gehalt, mehr Karriere in 2025?

Wenn Sie genau nach diesen Punkten suchen, haben wir da vielleicht was für Sie.Lassen Sie sich kostenlos von einem unserer Berater informieren.

MEHR

Meistgelesene Artikel

article card image
23.02.2024
23.02.2024
3 Minuten Lesezeit

Big-Four im Fokus: Audit-Markt im Wandel

article card image
03.03.2024
03.03.2024
2 Minuten Lesezeit

Neustrukturierung bei EY: Weg zur KG