Grasbrunn (ots) -
Nach der ersten Experimentierphase mit KI stehen viele Unternehmen vor entscheidenden Weichenstellungen. Sollen sie Modelle selbst trainieren oder besser vorgefertigte Varianten nutzen? Wo liegt der richtige Ort für die Inferenz - in der Cloud, im Rechenzentrum oder bei Hyperscalern? Und wie lassen sich dabei Kosten, Sicherheit und Abhängigkeiten von einzelnen Anbietern im Griff behalten? Solche Fragen prägen aktuell den Alltag von IT- und Fachabteilungen, die KI-Anwendungen nicht nur entwickeln, sondern auch zuverlässig betreiben müssen. Wie Red Hat diese Fragen beantwortet und welche Entwicklungen für die Zukunft das Unternehmen sieht, darüber haben wir mit Gregor von Jagow, Country Manager Germany bei Red Hat, gesprochen.
Viele Unternehmen stehen aktuell vor der Herausforderung, ihre GenAI- und LLM-Projekte effizient und sicher in den Betrieb zu überführen. Auf welche Lösungen kommt es aus Ihrer Sicht dabei an?
Wir brauchen unbedingt leistungsfähige Open-Source-Lösungen, die auf Transparenz, Interoperabilität und Unabhängigkeit aufbauen. Aus diesem Grund haben wir mit Red Hat AI (https://www.redhat.com/en/products/ai)einen Ansatz entwickelt, der moderne Container- und Cloud-Technologien mit einem Ökosystem an Werkzeugen und Modellen verbindet. Damit steht Unternehmen alles zur Verfügung, um ihre KI-Anwendungen zu entwickeln, zu trainieren und schließlich auch zu betreiben - ohne an einen Hyperscaler oder eine bestimmte Infrastruktur gefesselt zu sein.
Viele Unternehmen starten dabei mit Pilotprojekten, stoßen aber schnell auf Skalierungsprobleme. Wie will Red Hat dabei helfen, den wirtschaftlich sinnvollen Übergang von der Trainingsphase in den stabilen Betrieb zu meistern?
Pilotprojekte sind meist schnell aufgesetzt, haben in der Realität mit dem Produktivbetrieb aber wenig zu tun. Entscheidend ist ein strukturiertes Vorgehen. Mit unseren vorgefertigten Open-Source-Modellen können Unternehmen erste Ergebnisse erzielen und diese Modelle mit eigenen Daten schrittweise weiterentwickeln. Gleichzeitig bieten unsere umfangreichen Trainingsressourcen und Schulungen die notwendige Kompetenz, um Projekte aus der Test-Umgebung in produktive Systeme mit einer sinnvollen Hosting-Strategie und Inferenz-Servern zu überführen. Das reduziert Reibungsverluste, beschleunigt Time-to-Value und sichert Langlebigkeit sowie Innovationsgeschwindigkeit.
Sie betonen die Bedeutung der Hosting-Strategie und Inferenz. Warum sind gerade diese Aspekte entscheidende Faktoren für den produktiven Einsatz von KI - und wie unterstützt Red Hat hier?
Im Alltag entscheidet die Inferenz, also das Ausführen trainierter Modelle, über Kosten, Geschwindigkeit und Skalierbarkeit von KI-Anwendungen. Wer ausschließlich auf proprietäre Dienste setzt, läuft Gefahr, Kostenexplosionen und Leistungslücken in Kauf zu nehmen. Mit unseren Open-Source-Lösungen haben wir hingegen die Möglichkeit, Inferenz unabhängig und flexibel zu machen - ob im eigenen Rechenzentrum, in der Cloud oder hybrid. Durch eine containerbasierte Architektur können Unternehmen Workloads dorthin verschieben, wo sie am effizientesten laufen. Das senkt nicht nur Betriebskosten, sondern stärkt auch die eigene Souveränität.
Wohin entwickelt sich das Thema Open-Source-Inferenz aus Ihrer Sicht - und welche Rolle will Red Hat dabei im Ökosystem spielen?
Wir sind überzeugt, dass ein Open-Source-Ansatz langfristig der Schlüssel zu einer flexiblen und effizienten Nutzung von GenAI und LLMs ist. Es ist durchaus wahrscheinlich, dass wir hier eine ähnliche Entwicklung wie bei Linux erleben und Open Source sich als Rückgrat von Inferenz-Lösungen etabliert - egal, ob in der Cloud, On-Premises oder als hybride Lösung. Die Vorteile dieser Wahlfreiheit sind auch ein Schwerpunkt auf dem Red Hat Summit in Darmstadt 2025 (https://www.redhat.com/en/summit/connect/emea/darmstadt-2025?sc_cid=RHCTE1250000463495), wo wir zeigen werden, wie Unternehmen Open Source bei der Inferenz in der Praxis einsetzen können. Unser Ziel ist es, KI-Innovationen nicht nur zu diskutieren, sondern greifbar zu machen.
Mehr Informationen:
Red Hat AI: www.redhat.com/en/products/ai
Zum Red Hat Blog: www.redhat.com/en/blog
Pressekontakt:
Debora von Scheliha
Head of Marketing Central Europe (CE)
M: debora.vonscheliha@redhat.com
Original-Content von: Red Hat, übermittelt durch news aktuell
Originalmeldung: https://www.presseportal.de/pm/181249/6139245
Nach der ersten Experimentierphase mit KI stehen viele Unternehmen vor entscheidenden Weichenstellungen. Sollen sie Modelle selbst trainieren oder besser vorgefertigte Varianten nutzen? Wo liegt der richtige Ort für die Inferenz - in der Cloud, im Rechenzentrum oder bei Hyperscalern? Und wie lassen sich dabei Kosten, Sicherheit und Abhängigkeiten von einzelnen Anbietern im Griff behalten? Solche Fragen prägen aktuell den Alltag von IT- und Fachabteilungen, die KI-Anwendungen nicht nur entwickeln, sondern auch zuverlässig betreiben müssen. Wie Red Hat diese Fragen beantwortet und welche Entwicklungen für die Zukunft das Unternehmen sieht, darüber haben wir mit Gregor von Jagow, Country Manager Germany bei Red Hat, gesprochen.
Viele Unternehmen stehen aktuell vor der Herausforderung, ihre GenAI- und LLM-Projekte effizient und sicher in den Betrieb zu überführen. Auf welche Lösungen kommt es aus Ihrer Sicht dabei an?
Wir brauchen unbedingt leistungsfähige Open-Source-Lösungen, die auf Transparenz, Interoperabilität und Unabhängigkeit aufbauen. Aus diesem Grund haben wir mit Red Hat AI (https://www.redhat.com/en/products/ai)einen Ansatz entwickelt, der moderne Container- und Cloud-Technologien mit einem Ökosystem an Werkzeugen und Modellen verbindet. Damit steht Unternehmen alles zur Verfügung, um ihre KI-Anwendungen zu entwickeln, zu trainieren und schließlich auch zu betreiben - ohne an einen Hyperscaler oder eine bestimmte Infrastruktur gefesselt zu sein.
Viele Unternehmen starten dabei mit Pilotprojekten, stoßen aber schnell auf Skalierungsprobleme. Wie will Red Hat dabei helfen, den wirtschaftlich sinnvollen Übergang von der Trainingsphase in den stabilen Betrieb zu meistern?
Pilotprojekte sind meist schnell aufgesetzt, haben in der Realität mit dem Produktivbetrieb aber wenig zu tun. Entscheidend ist ein strukturiertes Vorgehen. Mit unseren vorgefertigten Open-Source-Modellen können Unternehmen erste Ergebnisse erzielen und diese Modelle mit eigenen Daten schrittweise weiterentwickeln. Gleichzeitig bieten unsere umfangreichen Trainingsressourcen und Schulungen die notwendige Kompetenz, um Projekte aus der Test-Umgebung in produktive Systeme mit einer sinnvollen Hosting-Strategie und Inferenz-Servern zu überführen. Das reduziert Reibungsverluste, beschleunigt Time-to-Value und sichert Langlebigkeit sowie Innovationsgeschwindigkeit.
Sie betonen die Bedeutung der Hosting-Strategie und Inferenz. Warum sind gerade diese Aspekte entscheidende Faktoren für den produktiven Einsatz von KI - und wie unterstützt Red Hat hier?
Im Alltag entscheidet die Inferenz, also das Ausführen trainierter Modelle, über Kosten, Geschwindigkeit und Skalierbarkeit von KI-Anwendungen. Wer ausschließlich auf proprietäre Dienste setzt, läuft Gefahr, Kostenexplosionen und Leistungslücken in Kauf zu nehmen. Mit unseren Open-Source-Lösungen haben wir hingegen die Möglichkeit, Inferenz unabhängig und flexibel zu machen - ob im eigenen Rechenzentrum, in der Cloud oder hybrid. Durch eine containerbasierte Architektur können Unternehmen Workloads dorthin verschieben, wo sie am effizientesten laufen. Das senkt nicht nur Betriebskosten, sondern stärkt auch die eigene Souveränität.
Wohin entwickelt sich das Thema Open-Source-Inferenz aus Ihrer Sicht - und welche Rolle will Red Hat dabei im Ökosystem spielen?
Wir sind überzeugt, dass ein Open-Source-Ansatz langfristig der Schlüssel zu einer flexiblen und effizienten Nutzung von GenAI und LLMs ist. Es ist durchaus wahrscheinlich, dass wir hier eine ähnliche Entwicklung wie bei Linux erleben und Open Source sich als Rückgrat von Inferenz-Lösungen etabliert - egal, ob in der Cloud, On-Premises oder als hybride Lösung. Die Vorteile dieser Wahlfreiheit sind auch ein Schwerpunkt auf dem Red Hat Summit in Darmstadt 2025 (https://www.redhat.com/en/summit/connect/emea/darmstadt-2025?sc_cid=RHCTE1250000463495), wo wir zeigen werden, wie Unternehmen Open Source bei der Inferenz in der Praxis einsetzen können. Unser Ziel ist es, KI-Innovationen nicht nur zu diskutieren, sondern greifbar zu machen.
Mehr Informationen:
Red Hat AI: www.redhat.com/en/products/ai
Zum Red Hat Blog: www.redhat.com/en/blog
Pressekontakt:
Debora von Scheliha
Head of Marketing Central Europe (CE)
M: debora.vonscheliha@redhat.com
Original-Content von: Red Hat, übermittelt durch news aktuell
Originalmeldung: https://www.presseportal.de/pm/181249/6139245
© 2025 news aktuell