Luma Agents basiert auf der neuen Unified Intelligence-Architektur von Luma und stellt eine neue Kategorie von KI-Mitarbeitern dar. Es wird derzeit bei globalen Unternehmenspartnern wie der Publicis Groupe und der Serviceplan Group eingesetzt
Luma hat heute die Einführung von Luma Agents bekannt gegeben, einer neuen Klasse von KI-Mitarbeitern, die in der Lage sind, kreative Arbeiten in den Bereichen Text, Bild, Video und Audio von Anfang bis Ende auszuführen. Luma Agents wurde für Agenturen, Marketingteams, Studios und Unternehmen entwickelt, die ihre kreative Leistung steigern möchten, ohne dabei Abstriche bei der Qualität zu machen. Luma Agents behält den vollständigen Kontext vom ersten Briefing bis zur endgültigen Lieferung bei und koordiniert Tools, Modelle und Iterationen innerhalb eines einzigen einheitlichen Systems.
Diese Pressemitteilung enthält multimediale Inhalte. Die vollständige Mitteilung hier ansehen: https://www.businesswire.com/news/home/20260305180454/de/
"Kreativer Arbeit hat es nie an Ambitionen gemangelt, sondern an der Fähigkeit, diese umzusetzen", erklärte Amit Jain, Mitbegründer und CEO von Luma. "Kreative Teams sollten ihre Zeit nicht mit der Koordination von Tools verbringen müssen. Sie sollten sie für kreative Arbeit nutzen. Agenten sind keine Abkürzungen. Sie sind Mitarbeiter, die den Kontext aufrechterhalten, die Ausführung koordinieren und Projekte vorantreiben, damit sich die Teams auf Geschmack, Ausrichtung und Strategie konzentrieren können."
In den letzten Jahren wurden die meisten KI-Systeme durch die Verkettung separater Modelle für Sprache, Bildverarbeitung, Video und Schlussfolgerungen zusammengestellt, wobei die Ergebnisse über Orchestrierungsschichten miteinander verknüpft wurden. Obwohl diese Systeme für sich genommen leistungsstark sind, fragmentieren sie den Kontext und erfordern zunehmend komplexe Arbeitsabläufe, um zuverlässige kreative Ergebnisse zu erzielen.
Luma ist der Ansicht, dass Intelligenz nicht in Einzelteilen zusammengesetzt werden sollte, sondern als ein zusammenhängendes System aufgebaut sein sollte.
Kreative Agenten, die Ihre Produktivität steigern
Luma Agents ersetzen fragmentierte, multimodale Arbeitsabläufe durch koordinierte, auf einheitlicher Logik basierende Ausführungsprozesse. Anstatt zwischen unverbundenen Tools zu wechseln und bei jedem Schritt den Kontext neu aufzubauen, arbeiten Teams mit Agenten zusammen, die:
- Projekte von Anfang bis Ende durchführen, von der Planung über die Produktion bis hin zur Lieferung
- einen gemeinsamen Kontext über Text, Bild, Video und Audio hinweg aufrechterhalten
- Mehrere kreative Richtungen parallel vorantreiben
- Ergebnisse bewerten und verfeinern, anstatt einmalige Ergebnisse zu generieren
- Über API in Unternehmens-Tools und Produktionssysteme integrieren
Agenten arbeiten in einer kollaborativen Multiplayer-Umgebung, in der Menschen kreative Absichten steuern und Agenten die Koordination, Weiterleitung und Ausführung übernehmen was zu mehr Output, größerer Konsistenz und höherer kreativer Geschwindigkeit führt.
Weltweit eingesetzt
Luma Agents sind bereits in den weltweiten Agenturbetrieben integriert.
Die Publicis Groupe und die Serviceplan Group setzen Luma Agents in den Bereichen Strategie, kreative Entwicklung und Produktionsabläufe ein, um den Durchsatz zu steigern und gleichzeitig die Markenkonsistenz über alle Märkte hinweg zu gewährleisten.
"Luma ist nun Teil unseres umfassenden House of AI-Ökosystems und direkt in unsere kreativen Arbeitsabläufe integriert. Dadurch können unsere Teams in mehr als 20 Ländern reibungsloser zusammenarbeiten und schneller hervorragende Ergebnisse erzielen. Für unsere Kunden bedeutet dies hochwertige kreative Ergebnisse, die schneller und effizienter geliefert werden ohne Abstriche bei der Qualität", erklärt Alexander Schill, Global CCO bei der Serviceplan Group.
Auf Unified Intelligence aufgebaut
Luma Agents basieren auf Unified Intelligence, einer neuen Modellarchitektur, die entwickelt wurde, um über den in der Branche vorherrschenden Ansatz der fragmentarischen Informationssammlung hinauszugehen. Anstatt separate Modelle für Sprache, Bildverarbeitung und Generierung miteinander zu verknüpfen, trainiert Unified Intelligence ein einziges multimodales Schlussfolgerungssystem, das in der Lage ist, innerhalb derselben Architektur verschiedene Formate zu verstehen und zu generieren.
In den letzten Jahren wurden die meisten KI-Systeme als Pipelines aufgebaut: Ein Modell erstellt Text, ein anderes generiert Bilder, ein weiteres verarbeitet Videos, und Orchestrierungsebenen versuchen, deren Ergebnisse miteinander zu verknüpfen. Diese Systeme sind zwar für eng gefasste Aufgaben effektiv, fragmentieren jedoch die Argumentation, verlieren den Zusammenhang zwischen den einzelnen Schritten und erfordern komplexe Arbeitsabläufe, um zuverlässige Ergebnisse zu erzielen.
Unified Intelligence verfolgt einen anderen Ansatz. Anstatt spezialisierte Modelle nachträglich zu verbinden, wird ein einziges multimodales Schlussfolgerungssystem trainiert, das innerhalb derselben Architektur verschiedene Formate verstehen und generieren kann.
Anstatt das Denken vom Schaffen zu trennen, verbindet Unified Intelligence das Denken und das Rendern eng miteinander, sodass das System als Teil eines zusammenhängenden kognitiven Prozesses planen, sich vorstellen und produzieren kann.
Wenn ein Architekt ein Gebäude entwirft, zeichnet er nicht nur Linien, sondern simuliert gleichzeitig Struktur, Licht, räumliche Dynamik und Lebenserfahrung. Vernunft und Vorstellungskraft wirken dabei zusammen. Unified Intelligence basiert auf dem gleichen Prinzip.
Das erste auf dieser Architektur basierende Modell ist Uni-1.
Uni-1 ist ein rein dekodierender autoregressiver Transformator, der über einen gemeinsamen Token-Raum arbeitet, der Sprach- und Bild-Token verschachtelt, sodass beide Modalitäten als erstklassige Ein- und Ausgänge in derselben Sequenz fungieren können. Dieses Design ermöglicht es dem Modell, in Sprache zu argumentieren, während es gleichzeitig in Pixeln innerhalb desselben Vorwärtsdurchlaufs visualisiert und rendert.
Anstatt Ergebnisse Schritt für Schritt über getrennte Systeme hinweg zu generieren, kann Uni-1 kreative Artefakte als Teil eines einzigen kohärenten Denkprozesses planen, visualisieren und produzieren. Das Ergebnis ist eine Grundlage, auf der Denken und Schaffen eng miteinander verbunden sind, was der Funktionsweise der menschlichen Intelligenz wesentlich näher kommt.
Aufbauend auf dieser einheitlichen Architektur können Luma Agents komplexe kreative Arbeitsabläufe koordinieren, für die zuvor mehrere Tools und manuelle Abstimmungen erforderlich waren. Sie können:
- führende KI-Modelle koordinieren, darunter Ray3.14, Veo 3, Sora 2, Kling 2.6, Nano Banana Pro, Seedream, GPT Image 1.5 und ElevenLabs
- Aufgaben automatisch auswählen und an das für jeden Schritt am besten geeignete Modell oder die am besten geeignete Funktion weiterleiten
- einen konsistenten Kontext über alle Assets, Mitwirkenden und kreativen Iterationen hinweg aufrechterhalten
- Ergebnisse bewerten und verfeinern und durch iterative Selbstkritik die Ergebnisse verbessern
Zusammen ermöglicht dies den Luma-Agenten, nicht als isolierte Generierungswerkzeuge zu fungieren, sondern als kollaborative KI-Kreative, die in der Lage sind, kreative Arbeiten von Anfang bis Ende auszuführen.
"Intelligenz sollte nicht durch Modalitäten fragmentiert werden", fügte Jain hinzu. "Einheitliche Systeme denken ganzheitlich. Wenn dasselbe Modell denken, sich Dinge vorstellen und darstellen kann, nähert man sich einer Intelligenz, die sich über den gesamten kreativen Prozess hinweg kohärent verhält."
Unternehmensfähig von Grund auf
Luma Agents wurde für Unternehmensumgebungen entwickelt, in denen der Schutz geistigen Eigentums, die Einhaltung von Vorschriften und die betriebliche Skalierbarkeit von entscheidender Bedeutung sind. Zu den wichtigsten Sicherheitsvorkehrungen für Unternehmen gehören das vollständige Eigentumsrecht an geistigem Eigentum, das bei den Kunden verbleibt, die automatisierte Überprüfung von Inhalten zur Reduzierung von Urheberrechtsrisiken, die Dokumentation rechtlicher Nachverfolgbarkeit, die menschliches Eingreifen nachweist, erforderliche manuelle Überprüfungsworkflows vor der Veröffentlichung sowie eine cloudbasierte Infrastruktur mit Sicherheitsvorkehrungen auf Unternehmensniveau.
Über Luma
Luma mit Sitz in Palo Alto, Kalifornien, entwickelt einheitliche multimodale KI-Systeme, die Schlussfolgerungen und Generierung in einer einzigen Modellarchitektur vereinen. Seine Unified Intelligence-Plattform unterstützt Agenten, die in der Lage sind, kreative Arbeiten in den Bereichen Video, Bild und 3D von Anfang bis Ende zu planen und zu produzieren, und bedient Teams in führenden Werbeagenturen, globalen Unternehmen und Unterhaltungsstudios. Im Jahr 2025 brachte Luma Ray3 auf den Markt, das weltweit erste Video-Modell mit Schlussfolgerungsfähigkeit, gefolgt von Ray3.14, das native 1080p-Ausgaben und produktionsreife Stabilität für professionelle Arbeitsabläufe bietet. Das Unternehmen wird von HUMAIN, Andreessen Horowitz, AWS, AMD Ventures, NVIDIA, Amplify Partners, Matrix Partners und führenden Investoren aus den Bereichen Technologie und Unterhaltung unterstützt. Für weitere Informationen besuchen Sie bitte www.lumalabs.ai
Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.
Originalversion auf businesswire.com ansehen: https://www.businesswire.com/news/home/20260305180454/de/
Contacts:
Peter Binazeski
Luma
peter@lumalabs.ai
