
In einem Blogpost im letzten Juli sagte Meta CEO Mark Zuckerberg, dass der "Verkauf von Zugang" zu Metas allgemein verfügbaren Llama AI-Modellen "nicht [Metas] Geschäftsmodell" sei. Dennoch verdient Meta zumindest etwas Geld mit Llama durch Umsatzbeteiligungsvereinbarungen, wie aus einer neu ungeschwärzten Gerichtseinreichung hervorgeht.
Die Einreichung, die von den Anwälten der Kläger in der Urheberrechtsklage Kadrey gegen Meta eingereicht wurde, in der Meta beschuldigt wird, seine Llama-Modelle auf Hunderten von Terabyte an urheberrechtlich geschützten E-Books trainiert zu haben, zeigt, dass Meta einen Prozentsatz des Umsatzes teilt, den Unternehmen, die seine Llama-Modelle hosten, mit den Nutzern dieser Modelle generieren.
Die Einreichung gibt nicht an, welche spezifischen Hosts Meta bezahlen. Aber Meta listet eine Reihe von Llama-Host-Partnern in verschiedenen Blogposts auf, darunter AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud und Snowflake.
Entwickler sind nicht verpflichtet, ein Llama-Modell über einen Host-Partner zu verwenden. Die Modelle können heruntergeladen, feinabgestimmt und auf einer Vielzahl von verschiedenen Hardwaregeräten ausgeführt werden. Aber viele Hosts bieten zusätzliche Dienstleistungen und Tools, die es einfacher machen, die Llama-Modelle in Betrieb zu nehmen.
Zuckerberg erwähnte die Möglichkeit, Zugang zu Llama-Modellen zu lizenzieren, während eines Quartalsergebnisgesprächs im letzten April, als er auch die Monetarisierung von Llama auf andere Weise ins Spiel brachte, wie zum Beispiel durch Geschäftsnachrichtendienste und Werbung in 'KI-Interaktionen'. Aber er skizzierte keine Einzelheiten.
"[W]enn Sie jemand wie Microsoft oder Amazon oder Google sind und diese Dienste im Grunde genommen weiterverkaufen, dann ist das etwas, von dem wir einen Teil des Umsatzes erhalten sollten", sagte Zuckerberg. "Das sind die Deals, die wir machen wollen, und wir haben damit angefangen."
Zuletzt betonte Zuckerberg, dass der größte Teil des von Meta aus Llama generierten Werts in Form von Verbesserungen der Modelle aus der KI-Forschungsgemeinschaft stammt. Meta nutzt Llama-Modelle, um eine Reihe von Produkten über seine Plattformen und Eigenschaften hinweg zu betreiben, einschließlich Metas KI-Assistenten, Meta AI.
"Ich glaube, es ist für uns ein gutes Geschäft, dies auf offene Weise zu tun", sagte Zuckerberg während des Quartalsergebnisgesprächs von Meta im Q3 2024. "Es macht unsere Produkte besser, als wenn wir auf einer Insel ein Modell bauen würden, das um das kein Industriestandardisierung stattfinden würde."
Die Tatsache, dass Meta möglicherweise auf recht direkte Weise Einnahmen aus Llama generiert, ist bedeutend, weil die Kläger in Kadrey gegen Meta behaupten, dass Meta nicht nur raubkopierte Werke verwendet hat, um Llama zu entwickeln, sondern auch die Verletzung durch 'Seeding', also das Hochladen, dieser Werke erleichtert hat. Kläger behaupten, dass Meta heimliche Torrenting-Methoden verwendet hat, um E-Books für das Training zu erhalten und dabei - aufgrund der Art und Weise, wie Torrenting funktioniert - die E-Books mit anderen Torrentern geteilt hat.
Meta plant, seine Investitionen in diesem Jahr erheblich zu erhöhen, hauptsächlich aufgrund seiner zunehmenden Investitionen in KI. Im Januar sagte das Unternehmen, es werde 2025 zwischen 60 und 80 Milliarden Dollar in Sachanlagen investieren - etwa das Doppelte der Investitionen von Meta in Sachanlagen im Jahr 2024 - hauptsächlich in Rechenzentren und den Ausbau der Teams für die KI-Entwicklung des Unternehmens.
Um einen Teil der Kosten zu kompensieren, soll Meta angeblich erwägen, einen Abonnementdienst für Meta AI zu starten, der dem Assistenten nicht näher spezifizierte Funktionen hinzufügt.
Aktualisiert am 21.03. um 13:54 Uhr: Ein Sprecher von Meta verwies TechCrunch auf dieses Quartalsergebnisgespräch-Transkript für zusätzlichen Kontext. Wir haben ein Zitat von Zuckerberg daraus hinzugefügt - speziell ein Zitat über Metas Absicht, Umsätze mit großen Hosts von Llama-Modellen zu teilen.