BUSINESS WIRE: Gcore erweitert KI-Inferenz um flexible Einsatzmöglichkeiten, darunter Cloud, On-Premise und Hybrid

MITTEILUNG UEBERMITTELT VON BUSINESS WIRE. FUER DEN INHALT IST ALLEIN DAS BERICHTENDE UNTERNEHMEN VERANTWORTLICH.

LUXEMBURG --(BUSINESS WIRE)-- 21.01.2025 --

Gcore, globaler Anbieter von Edge-KI-, Cloud-, Netzwerk- und Sicherheitslösungen, hat heute ein großes Update für Everywhere Inference, früher bekannt als Inference at the Edge, angekündigt. Dieses Update erhöht die Flexibilität bei der Bereitstellung von KI-Inferenzen und senkt die Latenzzeit weiter. Everywhere Inference unterstützt jetzt mehrere verschiedene Bereitstellungsoptionen: On-Premise, Gcores Cloud, Public Cloud oder eine hybride Mischung dieser Umgebungen.

Diese Pressemitteilung enthält multimediale Inhalte. Die vollständige Mitteilung hier ansehen: https://www.businesswire.com/news/home/20250116494675/de/

Neue Anforderungen an KI

Mit dem Update geht Gcore auf sich ändernde Kundenanforderungen ein. Angesichts des rasanten Wachstums von KI-Inferenz-Workloads möchte Gcore Unternehmen flexible Bereitstellungsoptionen bieten, die auf ihre individuellen Anforderungen zugeschnitten sind. Everywhere Inference nutzt Gcores globales Netzwerk mit über 180 Präsenzpunkten und ermöglicht so Echtzeitverarbeitung und sofortige Bereitstellung auf der ganzen Welt. Weil die KI-Inferenz-Workloads näher am Endnutzer verarbeitet werden, können Unternehmen sie in verschiedenen Umgebungen einsetzen und gleichzeitig extrem niedrige Latenzzeiten gewährleisten. Die Lösung verbessert außerdem das Kostenmanagement und vereinfacht die Einhaltung gesetzlicher Vorschriften in verschiedenen Regionen. Damit bietet sie einen umfassenden und anpassungsfähigen Ansatz für moderne KI-Herausforderungen.

Seva Vayner, Product Director of Edge Cloud and Edge AI bei Gcore, sagt: „Das Update von Everywhere Inference ist ein wichtiger Meilenstein. Wir möchten damit die KI-Nutzererfahrung verbessern und sich neu entwickelnde Kundenbedürfnisse erfüllen. 'Die Flexibilität und Skalierbarkeit von Everywhere Inference macht sie zu einer idealen Lösung für Unternehmen jeder Größe, von Startups bis hin zu Großunternehmen.“

Effiziente Workload-Verteilung mit Smart Routing

Das neue Update führt außerdem Smart Routing ein und erhöht damit die Flexibilität bei der Bereitstellung. Die Technologie leitet Workloads automatisch an die nächstgelegene verfügbare Compute-Ressource weiter. Darüber hinaus bietet Everywhere Inference jetzt Multi-Tenancy für KI-Workloads und nutzt die einzigartigen Multi-Tenancy-Funktionen von Gcore, um mehrere Inferenzaufgaben gleichzeitig auf der bestehenden Infrastruktur auszuführen. Dieser Ansatz optimiert die Ressourcennutzung und erhöht die Effizienz.

Die neuen Funktionen adressieren aktuelle Herausforderungen, mit denen Unternehmen beim Einsatz von KI-Inferenz konfrontiert sind. Der Ausgleich zwischen mehreren Cloud-Anbietern und lokalen Systemen für den Betrieb und die Einhaltung von rechtlichen Vorschriften kann sehr komplex sein. Durch die Einführung von Smart Routing können Benutzer Workloads in die von ihnen bevorzugte Region leiten und so die Einhaltung lokaler Datenvorschriften und Branchenstandards gewährleisten. Mit den neuen Bereitstellungsoptionen von Gcore können Unternehmen außerdem sensible Informationen sicher vor Ort isolieren und so den Datenschutz verbessern.

Erfahren Sie mehr unter https://gcore.com/everywhere-inference

###

Über Gcore

Gcore ist ein führender international tätiger Anbieter von Public Cloud und Edge Computing, KI, Content Delivery (CDN), Hosting und Security-Lösungen. Mit Hauptsitz in Luxemburg und mehr als 600 Mitarbeitenden bietet das Unternehmen seine Produkte weltweit an. Gcore betreibt seine eigene globale IT-Infrastruktur auf sechs Kontinenten und verfügt über eine der besten Netzwerkleistungen in Europa, Afrika und Lateinamerika mit einer durchschnittlichen Reaktionszeit von 30 ms. Das Netzwerk besteht aus mehr als 180 Präsenzpunkten auf der ganzen Welt in zuverlässigen Tier IV- und Tier III-Rechenzentren mit einer Gesamtkapazität von mehr als 200 Tbps.

Pressekontakt
Alina Nagel
Oseon
+49160 94945047
alina@oseon.com