|
WEKA / Schlagwort(e): Sonstiges/Produkteinführung WEKA maximiert die Token -Produktion bei geringeren Kosten pro Token auf NVIDIA BlueField-4 STX 16.03.2026 / 21:35 CET/CEST Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich. Die Integration von NeuralMesh und Augmented Memory Grid in NVIDIA STX steigert die Token-Produktion um das 6,5-Fache bei gleicher GPU-Kapazität und senkt die Kosten für Inferenzberechnungen in KI-gesteuerten Unternehmen drastisch SAN JOSE, Kalifornien und CAMPBELL, Kalifornien, 16. März 2026 /PRNewswire/ — Von der GTC 2026: WEKA, auf KI-Speicher- und Speichersysteme spezialisierte Unternehmen gab heute die Integration seiner NeuralMesh™-Software in die NVIDIA STX-Referenzarchitektur bekannt. Die bahnbrechende Speichererweiterungstechnologie Augmented Memory Grid™ von WEKA, die auf NeuralMesh läuft, wird NVIDIA STX unterstützen, um kontextbezogenen Speicher mit hohem Durchsatz für agentenbasierte KI-Fabriken bereitzustellen und so das Schlussfolgern mit langem Kontext über Sitzungen, Tools und Aufgaben hinweg nahtlos zu ermöglichen. Durch den Einsatz von NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4und NVIDIA Spectrum-X Ethernet wird die auf NVIDIA STX basierende NeuralMesh-Lösung eine geschätzte Steigerung der Token-Rate pro Sekunde für den Kontextspeicher um das 4- bis 10-fache erzielen und gleichzeitig einen Lese- und Schreibdurchsatz von mindestens 320 GB bzw. 150 GB pro Sekunde für KI-Workloads unterstützen – mehr als doppelt so viel wie bei herkömmlichen KI-Speicherplattformen. ![]() Lösung des Poblems der Inferenzkosten durch eine gemeinsame KV-Cache-Infrastruktur Speicherung im Kontext-Speicher: Die Grundlage für agentenbasierte KI-Fabriken Führende KI-Innovatoren und Cloud-Anbieter wie Firmustransformieren bereits ihre Inferenz-Ökonomie mit Augmented Memory Grid auf NeuralMesh. „KI in der realen Welt läuft nicht im Labor – sie unterliegt Leistungsbeschränkungen, Kühlungsgrenzen und einer unerbittlichen Arbeitslast. Firmus ist für genau das ausgelegt. In Kombination mit der NVIDIA-KI-Infrastruktur liefert das WEKA Augmented Memory Grid bis zu 6,5-mal mehr Token pro Sekunde und eine 4-mal schnellere TTFT im großen Maßstab, was beweist, dass wir mit dem gleichen GPU-Platzbedarf mehr Leistung erzielen können. Mit NeuralMesh und Augmented Memory Grid, integriert in unsere NVIDIA-konforme AI Factory und die NVIDIA STX-Referenzarchitektur, werden wir in der Lage sein, das schnellste Kontext-Speichernetzwerk für vorhersehbare und effiziente Inferenz im großen Maßstab bereitzustellen“, sagte Daniel Kearney, Chief Technology Officer bei Firmus. NeuralMesh und NVIDIA STX: Speziell für agentenbasierte KI entwickelt:
„Mit den Fortschritten bei den Coding-LLMs erleben wir eine beispiellose Verbreitung von Anwendungsfällen für Agentic AI im Software-Engineering, wo die Produktivität um das 100- bis 1000-Fache steigt. Da Coding-Assistenten wiederholt Aufrufe an weitgehend unveränderte Codebasen und Prompts senden, nutzt das Augmented Memory Grid von WEKA zwischengespeicherten Kontext wieder, anstatt redundantes Vorfüllen zu erzwingen – selbst wenn Kontextfenster auf unglaubliche Längen anwachsen. Dies sorgt für eine deutliche Verkürzung der Reaktionszeiten und erhöht die Anzahl der gleichzeitigen Nutzer, die auf derselben Infrastruktur laufen, erheblich“, sagte Liran Zvibel, Mitbegründer und CEO von WEKA. „WEKA hat diesen Bedarf an Kontextspeicher bereits vor über einem Jahr erkannt und Augmented Memory Grid auf der GTC 2025 vorgestellt. Nun eröffnet NVIDIA STX Unternehmen die Möglichkeit, ihre Speicher- und Speichererweiterungsinfrastruktur auf der hochmodernen NVIDIA Vera Rubin-Architektur zu betreiben, einschließlich NVIDIA BlueField-4 und NVIDIA Spectrum-X Ethernet. Der Einsatz von Augmented Memory Grid auf NeuralMesh für NVIDIA STX liefert extreme Leistung und Effizienz, was sich direkt in einer bahnbrechenden Wirtschaftlichkeit der KI niederschlägt.“ Verfügbarkeit Das Augmented Memory Grid von WEKA ist ab heute mit NeuralMesh kommerziell verfügbar. Für Unternehmen, die sich heute nicht mit der Speicherproblematik befassen, wird es morgen schwerer und teurer sein, ihre Kapazitäten zu erweitern. Mit zunehmendem Arbeitsaufkommen und immer größeren Kontextfenstern sehen sich reine DRAM-Architekturen mit einem sich verschärfenden Kostenproblem konfrontiert: Jeder zusätzliche gleichzeitige Nutzer oder jede zusätzliche Sitzung erhöht den Aufwand für Neuberechnungen, die Leerlaufzeit der GPU und die Betriebskosten. Unternehmen, die bereits jetzt auf einen persistenten KV-Cache setzen, werden einen strukturellen Kosten- und Leistungsvorteil gegenüber denen haben, die damit warten. Weitere Informationen über NeuralMesh finden Sie im Internet: weka.io/NeuralMesh. Unternehmen können mehr erfahren unter weka.io/nvidia oder WEKA auf der GTC 2026 am Stand Nr. 1034 besuchen. Informationen zu WEKA WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein. ![]() Foto – https://mma.prnewswire.com/media/2934399/WEKA_and_NVIDIA.jpg
16.03.2026 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News – ein Service der EQS Group. Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen. |
2292282 16.03.2026 CET/CEST
Eine Speicherung der Nachrichten in Datenbanken sowie jegliche Weiterleitung der Nachrichten an Dritte im Rahmen gewerblicher Nutzung oder zur gewerblichen Nutzung sind nur nach schriftlicher Genehmigung durch die EQS Group GmbH gestattet.
Originalversion auf eqs-news.com ansehen.







