Microsoft bringt ein DeepSeek-Modell in seine Cloud

Microsofts enger Partner und Mitarbeiter OpenAI könnte suggerieren, dass DeepSeek sein geistiges Eigentum gestohlen und seine Nutzungsbedingungen verletzt hat. Aber Microsoft will immer noch die glänzenden neuen Modelle von DeepSeek auf seiner Cloud-Plattform haben.

Microsoft hat heute angekündigt, dass R1, DeepSeeks sogenanntes Reasoning-Modell, auf dem Azure AI Foundry-Dienst verfügbar ist, Microsofts Plattform, die eine Vielzahl von KI-Diensten für Unternehmen unter einem einzigen Banner zusammenbringt. In einem Blog-Beitrag sagte Microsoft, dass die Version von R1 auf Azure AI Foundry "rigorose Red-Teaming- und Sicherheitsbewertungen" durchlaufen hat, einschließlich "automatisierter Bewertungen des Modellverhaltens und umfangreicher Sicherheitsüberprüfungen zur Minimierung potenzieller Risiken".

In naher Zukunft, so Microsoft, werden Kunden in der Lage sein, "destillierte" Versionen von R1 lokal auf Copilot+-PCs auszuführen, Microsofts Marke von Windows-Hardware, die bestimmte KI-Bereitschaftsanforderungen erfüllt.

"Während wir den Modellkatalog in Azure AI Foundry weiter ausbauen, sind wir gespannt, wie Entwickler und Unternehmen [...] R1 einsetzen, um reale Herausforderungen anzugehen und transformative Erlebnisse zu bieten", fuhr Microsoft in dem Beitrag fort.

Die Hinzufügung von R1 zu den Cloud-Diensten von Microsoft ist eine interessante, insbesondere da Microsoft angeblich eine Untersuchung zu DeepSeeks möglichen Missbrauch der Dienste von Microsoft und OpenAI eingeleitet hat. Laut Sicherheitsforschern, die für Microsoft arbeiten, könnte DeepSeek im Herbst 2024 eine große Menge an Daten unter Verwendung der API von OpenAI exfiltriert haben. Microsoft, das zufällig auch der größte Anteilseigner von OpenAI ist, informierte OpenAI über die verdächtige Aktivität, so Bloomberg.

Aber R1 ist das Gesprächsthema, und Microsoft könnte überzeugt worden sein, es in seinen Cloud-Bereich zu bringen, solange es noch Anziehungskraft besitzt.

Unklar ist, ob Microsoft irgendwelche Änderungen am Modell vorgenommen hat, um seine Genauigkeit zu verbessern - und seiner Zensur entgegenzuwirken. Laut einem Test der Informationszuverlässigkeitsorganisation NewsGuard gibt R1 83 % der Zeit ungenaue Antworten oder Nicht-Antworten, wenn es um nachrichtenbezogene Themen geht. Ein separater Test ergab, dass R1 85 % der Anfragen zu China ablehnt, möglicherweise eine Folge der staatlichen Zensur, der KI-Modelle unterliegen, die im Land entwickelt wurden.

TechCrunch hat einen auf KI ausgerichteten Newsletter! Melden Sie sich hier an, um ihn jeden Mittwoch in Ihrem Posteingang zu erhalten.