Edge-Modelle der nächsten Generation übertreffen weltweit führende Wettbewerber und sind jetzt als Open Source auf Hugging Face verfügbar
Liquid AI hat heute die Einführung seiner Liquid Foundation Models (LFM2) der nächsten Generation bekannt gegeben, die in der Edge-Modellklasse neue Rekorde in Bezug auf Geschwindigkeit, Energieeffizienz und Qualität aufstellen. Diese Version basiert auf dem First-Principles-Ansatz von Liquid AI für das Modelldesign. Im Gegensatz zu herkömmlichen transformatorbasierten Modellen besteht LFM2 aus strukturierten, adaptiven Operatoren, die ein effizienteres Training, schnellere Inferenz und eine bessere Generalisierung ermöglichen insbesondere in Szenarien mit langem Kontext oder begrenzten Ressourcen.
Liquid AI hat sein LFM2 als Open Source veröffentlicht und damit die neuartige Architektur in voller Transparenz der Welt vorgestellt. Die neuen Gewichte von LFM2 können nun über Hugging Face heruntergeladen werden und stehen auch über den Liquid Playground zum Testen zur Verfügung. Liquid AI gab außerdem bekannt, dass die Modelle in die Edge AI-Plattform des Unternehmens sowie in eine iOS-native Verbraucher-App integriert werden, um in den kommenden Tagen getestet zu werden.
"Bei Liquid entwickeln wir erstklassige Basismodelle, bei denen Qualität, Latenz und Speichereffizienz im Vordergrund stehen", erklärte Ramin Hasani, Mitbegründer und CEO von Liquid AI. "Die Modelle der LFM2-Serie wurden für den Einsatz auf jedem Prozessor entwickelt und optimiert, wodurch die Anwendungen generativer und Agentic AI am Edge vollständig erschlossen werden. LFM2 ist das erste Modell einer Reihe leistungsstarker Modelle, die wir in den kommenden Monaten auf den Markt bringen werden."
Die Veröffentlichung von LFM2 stellt einen Meilenstein im globalen KI-Wettbewerb dar und ist das erste Mal, dass ein US-Unternehmen öffentlich deutliche Effizienz- und Qualitätssteigerungen gegenüber den führenden Open-Source-Modellen für kleine Sprachen aus China, darunter auch Modelle von Alibaba und ByteDance, nachweisen konnte.
In direkten Vergleichen übertreffen LFM2-Modelle die modernsten Konkurrenzprodukte in Bezug auf Geschwindigkeit, Latenz und Befehlsausführung. Wichtige Highlights:
- LFM2 weist im Vergleich zu Qwen3, Gemma 3n Matformer und allen anderen bisher verfügbaren transformatorbasierten und nicht transformatorbasierten autoregressiven Modellen auf der CPU einen um 200 Prozent höheren Durchsatz und eine geringere Latenz auf.
- Das Modell ist nicht nur das schnellste, sondern schneidet im Durchschnitt auch deutlich besser ab als Modelle jeder Größenklasse in Bezug auf Befehlsausführung und Funktionsaufruf (die Hauptmerkmale von LLMs beim Aufbau zuverlässiger KI-Agenten). Damit ist LFM2 die ideale Modellwahl für lokale und Edge-Anwendungsfälle.
- LFMs, die auf dieser neuen Architektur und der neuen Trainingsinfrastruktur basieren, weisen eine um 300 Prozent verbesserte Trainingseffizienz gegenüber früheren Versionen von LFMs auf und sind damit die kostengünstigste Möglichkeit zum Aufbau leistungsfähiger Allzweck-KI-Systeme.
Durch die Verlagerung umfangreicher generativer Modelle von weit entfernten Clouds auf schlanke, geräteinterne LLMs werden Latenzzeiten im Millisekundenbereich, Offline-Ausfallsicherheit und datenhoheitskonforme Privatsphäre ermöglicht. Dies sind Funktionen, die für Telefone, Laptops, Autos, Roboter, Wearables, Satelliten und andere Endgeräte, die in Echtzeit reagieren müssen, unerlässlich sind. Durch die Aggregation wachstumsstarker Branchen wie Edge-KI-Stacks in den Bereichen Unterhaltungselektronik, Robotik, intelligente Geräte, Finanzen, E-Commerce und Bildung, noch bevor die Bereiche Verteidigung, Raumfahrt und Cybersicherheit berücksichtigt werden, steigt der Gesamtmarkt für kompakte, private Fundamentaldatenmodelle bis 2035 auf fast 1 Billion USD.
Liquid AI arbeitet mit einer Vielzahl von Fortune-500-Unternehmen in diesen Branchen zusammen. Sie bieten äußerst effiziente kleine multimodale Basismodelle mit einem sicheren Bereitstellungsstack der Enterprise-Klasse, der jedes Gerät lokal in ein KI-Gerät verwandelt. Dies bietet Liquid AI die Möglichkeit, einen überdurchschnittlich großen Marktanteil zu erlangen, da Unternehmen von Cloud-LLMs zu kosteneffizienter, schneller, privater und lokaler Intelligenz übergehen.
Über Liquid AI:
Liquid AI ist führend im Bereich der künstlichen Intelligenz und entwickelt grundlegende Modelle, die neue Standards für Leistung und Effizienz setzen. Mit dem Ziel, effiziente, universell einsetzbare KI-Systeme in jeder Größenordnung zu entwickeln, erweitert Liquid AI kontinuierlich die Grenzen dessen, wie viel Intelligenz in Smartphones, Laptops, Autos, Satelliten und anderen Geräten integriert werden kann. Weitere Informationen finden Sie unter www.liquid.ai.
Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.
Originalversion auf businesswire.com ansehen: https://www.businesswire.com/news/home/20250710425796/de/
Contacts:
Medien:
Stephen Peters
stephen.peters@liquid.ai