| 17.03.2026 | WEKA verkürzt die Bereitstellungszeiten für AI Factories von Monaten auf Minuten - dank einer sofort einsatzbereiten NVIDIA-Lösung für KI-Datenplattformen
|
WEKA
/ Schlagwort(e): Produkteinführung
WEKA verkürzt die Bereitstellungszeiten für AI Factories von Monaten auf Minuten - dank einer sofort einsatzbereiten NVIDIA-Lösung für KI-Datenplattformen
17.03.2026 / 22:35 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die KI-Datenplattform NewNeuralMesh schließt die Lücke zwischen KI-Proof-of-Concept und rentabler Produktion und liefert skalierbare Business Intelligence und schnellere KI-Ergebnisse mit NVIDIA
SAN JOSE und CAMPBELL, Kalifornien, 17. März 2026 /PRNewswire/ -- Von der GTC 2026: WEKA, das Unternehmen für KI-Speicher und -Systeme, hat heute die allgemeine Verfügbarkeit seiner NeuralMesh™ AI Data Platform (AIDP) bekannt gegeben, die eine kompatible, hochleistungsfähige Infrastruktur für Unternehmen bietet, die für AI Factory-Implementierungen optimiert ist. Die Lösung basiert auf dem Referenzdesign der NVIDIA AI Data Platform und ist ein End-to-End-System, das die Bereitstellung von KI-fähigen Daten für AI Factories beschleunigt. Das Ergebnis: Die Zeitspanne für KI-Projekte verkürzt sich von Monaten auf Minuten, sodass Unternehmen in der Lage sind, KI-Anwendungen im Produktionsmaßstab unter Verwendung der besten Technologien in ihrem gesamten Ökosystem bereitzustellen.

Die Lösung nutzt die einzigartige adaptive Architektur von NeuralMesh, um das hartnäckigste Hindernis bei der KI in Unternehmen zu beseitigen: Unternehmen können nachweisen, dass KI-Konzepte im Rahmen von Proof-of-Concept (POC) funktionieren, haben jedoch immer wieder Schwierigkeiten, den Produktionsmaßstab zu erreichen.
Basierend auf mehr als 170 Patenten und mehr als einem Jahrzehnt an KI-nativer Speicherinnovation – eine Grundlage, die keine konkurrierende Speicherplattform replizieren kann – wird NeuralMesh als einzige Lösung schneller und stabiler, wenn KI-Umgebungen auf Exabytes und darüber hinaus skalieren. Da die AI Factory-Dateninfrastruktur zu einer kritischen Schicht innerhalb der KI-Architektur von Unternehmen wird, hilft NeuralMesh seinen Kunden, die Lücke zwischen POC und Produktionsimplementierungen zu schließen. Kunden, die NeuralMesh mit Augmented Memory Grid™ betreiben, können bei Inferenz-Workloads 6,5-mal mehr Token pro GPU erzielen, was den Vorteil einer speziell entwickelten Architektur gegenüber einer nachgerüsteten Infrastruktur widerspiegelt.
„Unternehmen setzen AI Factories jetzt intern ein und treiben damit die Umstellung auf Inferenzen im gesamten Ökosystem voran. Diese Unternehmen benötigen schnelle KI-Ergebnisse und brauchen einsatzbereite Lösungen, die die Anforderungen von Unternehmen an Zuverlässigkeit, Sicherheit und ein optimales Preis-Leistungs-Verhältnis erfüllen", berichtet Liran Zvibel, Mitbegründer und CEO von WEKA. „NeuralMesh AIDP von WEKA bietet Unternehmen alles, was sie brauchen, um AI Factories im Dauerbetrieb zu betreiben: extreme Speicherleistung und die flexible Architektur, die für den Einsatz von KI im Produktionsmaßstab erforderlich ist. Ganz gleich, ob ein Unternehmen seine KI-Reise gerade erst beginnt oder eine vollständige NVIDIA-Bereitstellung betreibt – NeuralMesh AIDP lässt sich nahtlos skalieren, um das Wachstum des Unternehmens zu begleiten."
„Der Einsatz von agentenbasierter KI in der Produktion erfordert einen neuen Fokus auf die Verwaltung des kontinuierlichen, kohärenten Datenflusses und des Inferenzkontexts", betont Jason Hardy, Vice President, Storage Technologies bei NVIDIA. „Durch die Nutzung der NVIDIA AI Data Platform liefern Lösungen wie NeuralMesh AIDP von WEKA die persistente Kontextebene, die für stabile und hochskalierte agentenbasierte Inferenz notwendig ist."
Ein System für jede KI-Arbeitslast: Bereitstellung von durchgängigen AI Factories
AI Factories bieten Unternehmen speziell entwickelte Produktionssysteme für den Betrieb von KI im großen Maßstab, erfordern jedoch Speicherfunktionen, die über die reine Datenhaltung hinausgehen und aktiv Kontext sowie kontinuierliche Datenbewegungen unterstützen. NeuralMesh, das intelligente, adaptive Speichersystem von WEKA, liefert die kontinuierliche Datenschleifenleistung, die AI Factory-Workloads erfordern.
Sofort einsatzbereite KI-Anwendungen zur Beschleunigung von Geschäftsergebnissen
NeuralMesh AIDP ermöglicht es Unternehmen und KI-Cloud-Anbietern, KI-Vorgänge von der Abfrage bis zur Inferenz auf einer einzigen, sofort einsatzbereiten Plattform zu vereinheitlichen. Mit vorintegrierten Hardware- und Software-Optionen von NVIDIA (einschließlich NVIDIA RTX 6000 PRO Server Edition GPUs und der neu angekündigten NVIDIA RTX 4500 PRO Server Edition GPUs) sowie Red Hat, Spectro Cloud und Supermicro können Unternehmen monatelange KI-Integrationsarbeit vermeiden.
Die Plattform bietet eine vereinfachte Lösung, die es Teams ermöglicht, sich auf den Informations-Output zu konzentrieren, anstatt die zugrunde liegende Infrastruktur zu verwalten. Die Lösung bietet gebrauchsfertige Pipelines für ein breites Spektrum von Geschäftsanwendungen, die in verschiedenen Branchen eingesetzt werden können: Semantic Search, Video Search & Summarization (VSS), AlphaFold für die Arzneimittelentdeckung, AIQ/Agentic RAG und vieles mehr.
Diese KI-Anwendungen werden bereits von Unternehmens- und Forschungskunden eingesetzt, um Ergebnisse in wichtigen Bereichen zu erzielen:
-
Gesundheit und Life Sciences: Identifizieren Sie Patientenuntergruppen für mehrere Studien und beschleunigen Sie die Entdeckung in datenintensiven Workflows wie der Kryo-EM.
-
Finanzdienstleistungen: Erhalten Sie Marktsignale, sobald Daten eintreffen, und institutionalisieren Sie den Wissenszugriff zu einer gemeinsamen geschützten Ressource.
-
Öffentlicher Sektor: Erkennen Sie potenzielle Bedrohungen auf der Grundlage von Kontext und Bedeutung – nicht von Schlüsselwörtern – und automatisieren Sie die Synthese von Beweisen aus verschiedenen Quellen, um die Entscheidungsprozesse zu verbessern.
-
Physische KI und Robotik: Verkürzen Sie den Kreislauf von der Erfassung der realen Daten bis zum Einsatz des neu trainierten Modells und verbessern Sie so Flottenleistung, Zuverlässigkeit und Markteinführungszeit.
„Das fehlende Stück in der Produktions-KI sind nicht die Denkmodelle oder die Rechenleistung. Es geht darum, eine effiziente Plattform zu haben, die die AI Factory-Pipeline vereinheitlicht und wirklich skalierbar macht", erläutert Shimon Ben-David, CTO bei WEKA. „Das NeuralMesh AIDP wurde entwickelt, um die Lücke zwischen Produktion und Rentabilität von KI zu schließen, indem es Unternehmensexperimente in den Vollbetrieb überführt und KI für alles – von Agenten der nächsten Generation bis hin zu Anwendungen im Gesundheitswesen – wirtschaftlich tragfähig macht."
Zitate von Partnern und Kunden
„Um KI in die Produktion zu überführen, braucht es mehr als nur Technologie – es braucht Beständigkeit und Kontrolle. Durch den Einsatz der NeuralMesh AI Data Platform mit Red Hat AI Enterprise, basierend auf Red Hat OpenShift, können Unternehmen datenintensive KI-Pipelines in On-Premises- und Cloud-Umgebungen in dem Umfang betreiben, der für die Unternehmensproduktion erforderlich ist, ohne dabei Abstriche bei der Governance oder Sicherheit machen zu müssen", so Ryan King, Vice President, AI and Infrastructure Partners bei Red Hat.
„Die eigentliche Herausforderung bei der KI ist nicht mehr das Trainieren von Modellen. Es ermöglicht den zuverlässigen Betrieb dieser Systeme in der Produktion, in großem Maßstab und mit vorhersehbarer Leistung und kalkulierbaren Kosten. An dieser Stelle scheitern die meisten KI-Initiativen. Die NeuralMesh AI Data Platform lässt sich mit unserer AI Acceleration Cloud, Neysa Velocis, integrieren, um dieses Problem direkt anzugehen. Es gibt Teams die Möglichkeit, KI-Workloads als verlässliche Systeme zu betreiben, ohne die operative Last einer komplexen Infrastruktur zu tragen", erklärt Anindya Das, Mitbegründer und CTO von Neysa.
Verfügbarkeit Die NeuralMesh AI Data Platform-Lösung ist ab sofort verfügbar und wird als Appliance-System geliefert. Unternehmen können mehr erfahren unter weka.io/nvidia oder bei WEKA auf der GTC 2026 am Stand 1034 durch eine Demo.
Für weitere Informationen zu NeuralMesh AIDP:
Informationen zu WEKA
WEKA verändert die Art und Weise, wie Unternehmen KI-Workflows aufbauen, betreiben und skalieren – mit NeuralMesh™ by WEKA®, seinem intelligenten, adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit steigender Arbeitslast langsamer und anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller, leistungsfähiger und effizienter. Es passt sich dynamisch an KI-Umgebungen an und bietet so eine flexible Grundlage für Unternehmens-KI und agentenbasierte KI-Innovationen. NeuralMesh genießt das Vertrauen von 30 % der Fortune-50-Unternehmen und unterstützt führende Unternehmen, KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr unter www.weka.io oder verbinden Sie sich mit uns auf LinkedIn und X.
WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein.
Photo - https://mma.prnewswire.com/media/2934370/WEKA_and_NVIDIA.jpg
Logo: https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/weka-verkurzt-die-bereitstellungszeiten-fur-ai-factories-von-monaten-auf-minuten--dank-einer-sofort-einsatzbereiten-nvidia-losung-fur-ki-datenplattformen-302716558.html

17.03.2026 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
|
2293156 17.03.2026 CET/CEST
|
| 16.03.2026 | WEKA maximiert die Token -Produktion bei geringeren Kosten pro Token auf NVIDIA BlueField-4 STX
|
WEKA
/ Schlagwort(e): Sonstiges/Produkteinführung
WEKA maximiert die Token -Produktion bei geringeren Kosten pro Token auf NVIDIA BlueField-4 STX
16.03.2026 / 21:35 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die Integration von NeuralMesh und Augmented Memory Grid in NVIDIA STX steigert die Token-Produktion um das 6,5-Fache bei gleicher GPU-Kapazität und senkt die Kosten für Inferenzberechnungen in KI-gesteuerten Unternehmen drastisch SAN JOSE, Kalifornien und CAMPBELL, Kalifornien, 16. März 2026 /PRNewswire/ -- Von der GTC 2026: WEKA, auf KI-Speicher- und Speichersysteme spezialisierte Unternehmen gab heute die Integration seiner NeuralMesh™-Software in die NVIDIA STX-Referenzarchitektur bekannt. Die bahnbrechende Speichererweiterungstechnologie Augmented Memory Grid™ von WEKA, die auf NeuralMesh läuft, wird NVIDIA STX unterstützen, um kontextbezogenen Speicher mit hohem Durchsatz für agentenbasierte KI-Fabriken bereitzustellen und so das Schlussfolgern mit langem Kontext über Sitzungen, Tools und Aufgaben hinweg nahtlos zu ermöglichen. Durch den Einsatz von NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4und NVIDIA Spectrum-X Ethernet wird die auf NVIDIA STX basierende NeuralMesh-Lösung eine geschätzte Steigerung der Token-Rate pro Sekunde für den Kontextspeicher um das 4- bis 10-fache erzielen und gleichzeitig einen Lese- und Schreibdurchsatz von mindestens 320 GB bzw. 150 GB pro Sekunde für KI-Workloads unterstützen – mehr als doppelt so viel wie bei herkömmlichen KI-Speicherplattformen.
 Lösung des Poblems der Inferenzkosten durch eine gemeinsame KV-Cache-Infrastruktur Die Skalierung agentischer Systeme, insbesondere für Anwendungen im Bereich der Softwareentwicklung, macht eine harte Realität deutlich: Die Wirtschaftlichkeit heutiger KI-Systeme entscheidet sich auf der Ebene der Speicherinfrastruktur. Jede groß angelegte Inferenzflotte stößt an die Speichergrenze: Der begrenzte High-Bandwidth-Memory (HBM) auf der GPU ist schnell erschöpft, der Key-Value (KV)-Cache wird geleert, der Kontext geht verloren und das System ist gezwungen, bereits abgeschlossene Arbeit zu wiederholen. Diese architektonische Ineffizienz lässt die Inferenzkosten in die Höhe schnellen. Die Lösung ist eine gemeinsame KV-Cache-Infrastruktur, die den Kontext über Agenten, Benutzer und Sitzungen hinweg aufrechterhält.truktur entschieden. Sie eliminiert redundante Berechnungen, sichert den Token-Durchsatz und gewährleistet eine vorhersehbare Leistung. Ohne eine gemeinsame KV-Cache-Infrastruktur wird jede Zunahme an gleichzeitigen Benutzern und Agenten zu einer Belastung – die Kosten steigen, die Benutzererfahrung verschlechtert sich, und der Betrieb der Inferenzflotte wird umso schwieriger, je größer sie wird. Mit STX für den Kontext-Speicher stellt NVIDIA einen Entwurf vor, um diese zentralen Inferenz-Engpässe zu beheben. Speicherung im Kontext-Speicher: Die Grundlage für agentenbasierte KI-Fabriken Mit gemeinsam entwickelten WEKA-Lösungen auf Basis der NVIDIA STX-Architektur können KI-Clouds, Unternehmen und Entwickler von KI-Modellen die Infrastruktur bereitstellen, die sie benötigen, um GPUs mit maximaler Produktivität zu betreiben, eine hohe Token-Produktionsrate aufrechtzuerhalten und groß angelegte Inferenz energie- und kosteneffizienter zu gestalten. Führende KI-Innovatoren und Cloud-Anbieter wie Firmustransformieren bereits ihre Inferenz-Ökonomie mit Augmented Memory Grid auf NeuralMesh. „KI in der realen Welt läuft nicht im Labor – sie unterliegt Leistungsbeschränkungen, Kühlungsgrenzen und einer unerbittlichen Arbeitslast. Firmus ist für genau das ausgelegt. In Kombination mit der NVIDIA-KI-Infrastruktur liefert das WEKA Augmented Memory Grid bis zu 6,5-mal mehr Token pro Sekunde und eine 4-mal schnellere TTFT im großen Maßstab, was beweist, dass wir mit dem gleichen GPU-Platzbedarf mehr Leistung erzielen können. Mit NeuralMesh und Augmented Memory Grid, integriert in unsere NVIDIA-konforme AI Factory und die NVIDIA STX-Referenzarchitektur, werden wir in der Lage sein, das schnellste Kontext-Speichernetzwerk für vorhersehbare und effiziente Inferenz im großen Maßstab bereitzustellen", sagte Daniel Kearney, Chief Technology Officer bei Firmus. NeuralMesh und NVIDIA STX: Speziell für agentenbasierte KI entwickelt: NeuralMesh ist das intelligente, adaptive Speichersystem von WEKA, das auf über 170 Patenten basiert. Es wird auf der Full-Stack-STX-Referenzarchitektur laufen und die Speicherlösung der nächsten Generation bereitstellen, die Unternehmen benötigen, um hochleistungsfähige KI-Datendienste zu standardisieren und die Ergebnisse agentischer KI zu beschleunigen. Das Augmented Memory Grid von WEKA ist eine speziell entwickelte Speichererweiterungsschicht, die den KV-Cache außerhalb des GPU-Speichers bündelt und dort dauerhaft speichert, wodurch lang andauernde Sitzungen stabil bleiben und die Parallelität hoch bleibt, auch wenn die Inferenz-Workloads zunehmen. Das Augmented Memory Grid, das erstmals auf der GTC 2025 vorgestellt wurde und heute für NeuralMesh-Kunden allgemein verfügbar ist, wurde gemeinsam mit Supermicro auf NVIDIA Grace- CPUs und BlueField-3-DPUs validiert und bietet zahlreiche Vorteile, die die Wirtschaftlichkeit von KI verbessern, darunter: - Schnellere Benutzererfahrungen: Das Augmented Memory Grid auf NeuralMesh sorgt für eine 4- bis 20-fache Verbesserung der „Time-to-First-Token"-Zeit und hält KI-Agenten und -Anwendungen unter realer Last reaktionsfähig.
- Mehr Umsatz mit derselben Hardware: 6,5-mal mehr Token pro GPU bereitstellen – ohne zusätzliche Infrastruktur.
- Nachhaltige Leistung bei Skalierung: Augmented Memory Grid sorgt für hohe KV-Cache-Trefferraten, selbst wenn Sessions, Agenten und Kontextfenster wachsen – und verhindert so den Leistungsabfall, der bei reinen DRAM-Architekturen auftritt.
- GPU-native Effizienz: Die BlueField-4-Integration entlastet die CPU vom Speicherdatenpfad, hält die GPUs voll produktiv und beseitigt I/O-Engpässe.
„Mit den Fortschritten bei den Coding-LLMs erleben wir eine beispiellose Verbreitung von Anwendungsfällen für Agentic AI im Software-Engineering, wo die Produktivität um das 100- bis 1000-Fache steigt. Da Coding-Assistenten wiederholt Aufrufe an weitgehend unveränderte Codebasen und Prompts senden, nutzt das Augmented Memory Grid von WEKA zwischengespeicherten Kontext wieder, anstatt redundantes Vorfüllen zu erzwingen – selbst wenn Kontextfenster auf unglaubliche Längen anwachsen. Dies sorgt für eine deutliche Verkürzung der Reaktionszeiten und erhöht die Anzahl der gleichzeitigen Nutzer, die auf derselben Infrastruktur laufen, erheblich", sagte Liran Zvibel, Mitbegründer und CEO von WEKA. „WEKA hat diesen Bedarf an Kontextspeicher bereits vor über einem Jahr erkannt und Augmented Memory Grid auf der GTC 2025 vorgestellt. Nun eröffnet NVIDIA STX Unternehmen die Möglichkeit, ihre Speicher- und Speichererweiterungsinfrastruktur auf der hochmodernen NVIDIA Vera Rubin-Architektur zu betreiben, einschließlich NVIDIA BlueField-4 und NVIDIA Spectrum-X Ethernet. Der Einsatz von Augmented Memory Grid auf NeuralMesh für NVIDIA STX liefert extreme Leistung und Effizienz, was sich direkt in einer bahnbrechenden Wirtschaftlichkeit der KI niederschlägt." Verfügbarkeit Das Augmented Memory Grid von WEKA ist ab heute mit NeuralMesh kommerziell verfügbar. Für Unternehmen, die sich heute nicht mit der Speicherproblematik befassen, wird es morgen schwerer und teurer sein, ihre Kapazitäten zu erweitern. Mit zunehmendem Arbeitsaufkommen und immer größeren Kontextfenstern sehen sich reine DRAM-Architekturen mit einem sich verschärfenden Kostenproblem konfrontiert: Jeder zusätzliche gleichzeitige Nutzer oder jede zusätzliche Sitzung erhöht den Aufwand für Neuberechnungen, die Leerlaufzeit der GPU und die Betriebskosten. Unternehmen, die bereits jetzt auf einen persistenten KV-Cache setzen, werden einen strukturellen Kosten- und Leistungsvorteil gegenüber denen haben, die damit warten. Weitere Informationen über NeuralMesh finden Sie im Internet: weka.io/NeuralMesh. Weitere Informationen über Augmented Memory Grid finden Sie im Internet: weka.io/augmented-memory-grid. Unternehmen können mehr erfahren unter weka.io/nvidia oder WEKA auf der GTC 2026 am Stand Nr. 1034 besuchen. Informationen zu WEKA WEKA verändert die Art und Weise, wie Unternehmen KI-Workflows erstellen, ausführen und skalieren, mit NeuralMesh™ by WEKA®, seinem intelligenten, adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit zunehmender Arbeitslast langsamer und anfälliger werden, wird NeuralMesh bei Skalierung immer schneller, leistungsfähiger und effizienter. Es passt sich dynamisch an KI-Umgebungen an und bietet so eine flexible Grundlage für Innovationen im Bereich der Unternehmens-KI und der agentenbasierten KI. NeuralMesh genießt das Vertrauen von 30 % der Fortune-50-Unternehmen und unterstützt führende Unternehmen, KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr unter www.weka.io oder verbinden Sie sich mit uns auf LinkedIn und X. WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein. Foto - https://mma.prnewswire.com/media/2934399/WEKA_and_NVIDIA.jpg Logo – https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/weka-maximiert-die-token--produktion-bei-geringeren-kosten-pro-token-auf-nvidia-bluefield-4-stx-302714741.html

16.03.2026 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
|
2292282 16.03.2026 CET/CEST
|
| 19.11.2025 | WEKA stellt WEKApod-Geräte der nächsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren
|
WEKA
/ Schlagwort(e): Produkteinführung
WEKA stellt WEKApod-Geräte der nächsten Generation vor, die die Wirtschaftlichkeit von KI-Speichern neu definieren
19.11.2025 / 22:50 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
WEKApod Prime basiert auf AlloyFlash und bietet eine bahnbrechende Kosteneffizienz mit einem um 65 % besseren Preis-Leistungs-Verhältnis. WEKApod Nitro bietet eine beispiellose Leistungsdichte mit doppelt so hohen Geschwindigkeiten für anspruchsvolle KI-Workloads
ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von SC25: WEKA, das KI-Speicherunternehmen, hat die nächste Generation seiner WEKApod™-Geräte angekündigt, die den traditionellen Kompromiss zwischen Leistung und Kosten auf den Kopf stellen sollen. Das komplett überarbeitete WEKApod-Prime-Gerät erzielt eine um 65 % bessere Preis-Leistungs-Bilanz, indem es Daten intelligent über gemischte Flash-Konfigurationen verteilt und so bahnbrechende Wirtschaftlichkeit ohne Kompromisse bietet. WEKApod Nitro verdoppelt die Leistungsdichte mit aktualisierter Hardware und ermöglicht es Unternehmen, Innovationen im Bereich KI und High-Performance-Computing (HPC) zu beschleunigen, die GPU-Auslastung zu maximieren und mehr Kunden zu bedienen. Durch sein Design mit höherer Dichte eignet es sich auch ideal für große Objektspeicher-Repositorys und KI-Data-Lakes, die kompromisslose Leistung erfordern.

WEKApod-Geräte sind die einfachste und schnellste Möglichkeit, NeuralMesh™ von WEKA zu implementieren und zu skalieren, das weltweit einzige Speichersystem, das speziell für die Beschleunigung von KI in großem Maßstab entwickelt wurde. WEKApod bietet die softwaredefinierte Flexibilität von NeuralMesh in einsatzbereiten, vorab validierten Konfigurationen mit einem deutlich verbesserten Setup-Dienstprogramm und Plug-and-Play-Funktionalität. Unternehmen können mit nur acht Servern beginnen und bei wachsenden Bereitstellungen auf Hunderte skalieren, wodurch komplexe Integrationsarbeiten entfallen und gleichzeitig auf den kompletten Funktionsumfang von NeuralMesh zugegriffen werden kann – einschließlich verteilter Datensicherung, sofortiger Snapshots, Multi-Protokoll-Zugriff, automatisierter Tiering, Verschlüsselung und Hybrid-Cloud-Funktionen.
Die Krise der Infrastruktureffizienz
Unternehmen, die in KI-Infrastruktur investieren, stehen unter zunehmendem Druck, den ROI nachzuweisen, da wertvolle GPU-Ressourcen nicht ausgelastet sind, Trainingszyklen die Zeitpläne verlängern, Inferenzkosten die Margen auffressen und die Cloud-Rechnungen mit dem Datenwachstum in die Höhe schnellen. Herkömmliche Speichersysteme zwingen sie zu einer unmöglichen Wahl: extreme Leistung oder überschaubare Kosten, aber nie beides. Gleichzeitig bedeuten die Einschränkungen von Rechenzentren – begrenzter Rack-Platz, Strombudgets und Kühlkapazität –, dass jede Rack-Einheit mehr Leistung liefern muss, da sonst die Infrastrukturkosten außer Kontrolle geraten.
Die WEKApod-Familie der nächsten Generation geht diese geschäftlichen Herausforderungen direkt an. WEKApod Prime beseitigt den Zwang, zwischen Leistung und Kosten abzuwägen, und bietet eine um 65 % bessere Preis-Leistungs-Bilanz durch intelligente Datenplatzierung, die die Platzierung automatisch anhand der Workload-Eigenschaften optimiert – so wird sichergestellt, dass Schreibvorgänge ihre volle Leistung beibehalten und gleichzeitig bahnbrechende Wirtschaftlichkeit erzielt wird.
Jetzt brauchen KI-Entwickler und Cloud-Anbieter keinen Kompromiss zwischen Leistung und Kosten mehr einzugehen
WEKApod Prime: bietet einen einzigartigen Ansatz für die Mixed-Flash-Technologie, indem es TLC- und eTLC-Flash-Laufwerke intelligent in Konfigurationen kombiniert, die bis zu 20 Laufwerke in einem 1U-Rack oder 40 Laufwerke in einer 2U-Rack-Konfiguration unterstützen. Im Gegensatz zu herkömmlichen mehrstufigen Speicherlösungen, die Cache-Hierarchien, Datenbewegungen zwischen den Ebenen und Einbußen bei der Schreibgeschwindigkeit mit sich bringen, bietet AlloyFlash von WEKApod eine konsistente Leistung bei allen Vorgängen – einschließlich voller Schreibgeschwindigkeit ohne Drosselung – und erzielt dabei bahnbrechende Wirtschaftlichkeit. Keine Kompromisse, keine Einbußen bei der Schreibgeschwindigkeit, keine Cache-Hierarchien. WEKApod Prime wird bereits von führenden Pionieren im Bereich der KI-Cloud wie dem Danish Centre for AI Innovation (DCAI) eingesetzt.
Das Ergebnis ist eine außergewöhnliche Dichte, die direkt auf die Ressourcenbeschränkungen von Rechenzentren eingeht: 4,6-mal bessere Kapazitätsdichte, 5-mal bessere Schreib-IOPS pro Rack-Einheit (im Vergleich zur vorherigen Generation), 4-mal bessere Leistungsdichte bei 23.000 IOPS pro kW (oder 1,6 PB pro kW) und 68 % weniger Stromverbrauch pro Terabyte bei gleichbleibender extremer Leistung, die KI-Workloads erfordern. Für schreibintensive KI-Workloads wie Training und Checkpointing bedeutet dies, dass der Speicher ohne Leistungseinbußen Schritt hält, die teure GPUs während kritischer Vorgänge ungenutzt lassen können.
WEKApod Nitro: speziell für KI-Fabriken mit Hunderten oder Tausenden von Grafikprozessoren entwickelt wurde, bietet es eine doppelt so hohe Leistung und ein 60 % besseres Preis-Leistungs-Verhältnis durch verbesserte Hardware, darunter NVIDIA ConnectX-8 SuperNIC mit einem Durchsatz von 800 Gb/s und 20 TLC-Laufwerken in einem kompakten 1U-Formfaktor. Als schlüsselfertige NVIDIA DGX SuperPOD und NVIDIA Cloud Partner (NCP)-zertifizierte Geräte ersparen beide WEKApod-Konfigurationen wochenlange Integrationsarbeiten, sodass Unternehmen Kundenservices innerhalb von Tagen statt Monaten auf den Markt bringen können und gleichzeitig sicherstellen, dass die Speicherinfrastruktur mit den Beschleunigern der nächsten Generation Schritt hält.
Messbare geschäftliche Auswirkungen von KI-Implementierungen
-
Für KI-Cloud-Anbieter und Neoclouds: Bedienen Sie mehr Kunden profitabel mit Ihrer bestehenden Infrastruktur und halten Sie gleichzeitig garantierte Leistungs-SLAs ein. Die Verbesserung des Preis-Leistungs-Verhältnisses um 65 % führt direkt zu höheren Margen für GPU-as-a-Service-Angebote. Schnellere Bereitstellungszeiten bedeuten schnellere Umsätze für neue Kunden.
-
Für Unternehmen, die KI-Fabriken einrichten: Setzen Sie KI-Initiativen innerhalb von Tagen statt Monaten um – mit schlüsselfertigen Lösungen, die komplexe Integrationsarbeiten überflüssig machen und es IT-Teams ermöglichen, ohne spezielles Fachwissen eine Speicherleistung auf Unternehmensniveau zu erzielen. Reduzieren Sie den Stromverbrauch durch verbesserte Dichte und Effizienz um bis zu 68 % und skalieren Sie gleichzeitig die KI-Fähigkeiten, ohne dass sich die Anforderungen an Platzbedarf, Stromverbrauch oder Kühlung im Rechenzentrum proportional erhöhen – so erzielen Sie vom ersten Tag an einen messbaren ROI für Ihre Infrastruktur.
-
Für KI-Entwickler und -Forscher: Beschleunigen Sie die Modellentwicklung mit GPU-Auslastungsraten von mehr als 90 %. Reduzieren Sie die Trainingszeit, um Iterationszyklen zu beschleunigen und sich einen Wettbewerbsvorteil zu verschaffen. Senken Sie die Inferenzkosten, um neue KI-Anwendungen wirtschaftlich rentabel zu machen. Beginnen Sie mit nur acht Servern und skalieren Sie bei steigendem Bedarf auf Hunderte, wobei alle NeuralMesh-Unternehmensfunktionen standardmäßig enthalten sind.
Anbieter von KI-Infrastrukturen sehen bereits direkte geschäftliche Auswirkungen dieser Innovationen:
„Platz und Strom sind die neuen Grenzen der Innovation in Rechenzentren. Die außergewöhnliche Speicherdichte von WEKApod ermöglicht es uns, einen Datendurchsatz und eine Effizienz auf Hyperscaler-Niveau bei optimiertem Platzbedarf zu erzielen – und so mehr KI-Leistung pro Kilowatt und Quadratmeter freizusetzen", sagte Nadia Carlsten, CEO des Danish Centre for AI Innovation (DCAI). „Diese Effizienz verbessert direkt die Wirtschaftlichkeit und beschleunigt die Bereitstellung von KI-Innovationen für unsere Kunden."
„KI-Investitionen müssen einen ROI nachweisen. WEKApod Prime bietet eine um 65 % bessere Preis-Leistungs-Bilanz ohne Einbußen bei der Geschwindigkeit, während WEKApod Nitro die Leistung verdoppelt, um die GPU-Auslastung zu maximieren. Das Ergebnis: Schnellere Modellentwicklung, höherer Inferenzdurchsatz und bessere Renditen für Investitionen in Rechenleistung, die sich direkt auf die Rentabilität und die Markteinführungszeit auswirken", so Ajay Singh, Chief Product Officer bei WEKA.
„Netzwerke sind für die KI-Infrastruktur von entscheidender Bedeutung und verwandeln KI-Rechen- und Speicherkapazitäten in eine Denkplattform, die Token digitaler Intelligenz in großem Maßstab generiert und bereitstellt", sagte Kevin Deierling, Senior Vice President Networking bei NVIDIA. „Mit NVIDIA Spectrum-X Ethernet und NVIDIA ConnectX-8-Netzwerken als Grundlage für WEKApod unterstützt WEKA Unternehmen dabei, Datenengpässe zu beseitigen – was für die Optimierung der KI-Leistung von entscheidender Bedeutung ist."
Verfügbarkeit
WEKApod-Geräte der nächsten Generation sind jetzt verfügbar. Organisationen können mehr erfahren unter weka.io/wekapod oder WEKA auf der SuperComputing 2025, Stand Nr. 2215 besuchen.
Informationen zu WEKA
WEKA verändert die Art und Weise, wie Unternehmen KI-Workflows aufbauen, betreiben und skalieren – mit NeuralMesh™ by WEKA®, seinem intelligenten, adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit steigender Arbeitslast langsamer und anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller, leistungsfähiger und effizienter. Es passt sich dynamisch an KI-Umgebungen an und bietet so eine flexible Grundlage für Unternehmens-KI und agentenbasierte KI-Innovationen. NeuralMesh genießt das Vertrauen von 30 % der Fortune-50-Unternehmen und unterstützt führende Unternehmen, KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr auf www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X.
WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein.
Foto - https://mma.prnewswire.com/media/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg Logo - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/weka-stellt-wekapod-gerate-der-nachsten-generation-vor-die-die-wirtschaftlichkeit-von-ki-speichern-neu-definieren-302620908.html

19.11.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen: EQS News
|
2232958 19.11.2025 CET/CEST
|
| 19.11.2025 | WEKA durchbricht die KI-Speicherbarriere mit Augmented Memory Grid auf NeuralMesh
|
WEKA
/ Schlagwort(e): Produkteinführung
WEKA durchbricht die KI-Speicherbarriere mit Augmented Memory Grid auf NeuralMesh
19.11.2025 / 00:30 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Bahnbrechende Speichererweiterungstechnologie, validiert auf Oracle Cloud Infrastructure, demokratisiert die Inferenz und bietet NeuralMesh-Kunden 1000-mal mehr Speicher und eine 20-mal schnellere Zeit bis zum ersten Token
ST. LOUIS und CAMPBELL, Kalifornien, 19. November 2025 /PRNewswire/ -- Von SC25: WEKA, das KI-Speicherunternehmen, gab heute die kommerzielle Verfügbarkeit von Augmented Memory Grid™ auf NeuralMesh™ bekannt, einer revolutionären Speichererweiterungstechnologie, die den grundlegenden Engpass beseitigt, der die KI-Innovation bremst: GPU-Speicher. Augmented Memory Grid wurde auf Oracle Cloud Infrastructure (OCI) und anderen führenden KI-Cloud-Plattformen validiert und erweitert die GPU-Speicherkapazität um das 1000-fache, von Gigabyte auf Petabyte, während die Zeit bis zum ersten Token um das bis zu 20-fache reduziert wird. Dieser Durchbruch ermöglicht es KI-Entwicklern, langwierige Kontextüberlegungen und agentenbasierte KI-Workflows zu optimieren und so die Effizienz von Inferenz-Workloads, deren Skalierung bisher eine Herausforderung darstellte, erheblich zu verbessern.

Von der Innovation zur Produktion: Lösung für die KI-Speicherbarriere Seit seiner Einführung auf der NVIDIA GTC 2025 wurde Augmented Memory Grid in führenden Produktions-KI-Cloud-Umgebungen, beginnend mit OCI, gehärtet, getestet und validiert. Die Ergebnisse haben bestätigt, was erste Tests bereits gezeigt hatten Da sich KI-Systeme zu längeren, komplexeren Interaktionen entwickeln – von Codierungs-Copiloten über Forschungsassistenten bis hin zu Schlussfolgerungsagenten – ist der Speicher zu einem kritischen Engpass geworden, der die Inferenzleistung und Wirtschaftlichkeit einschränkt.
„Wir bringen eine bewährte Lösung auf den Markt, die mit Oracle Cloud Infrastructure und anderen führenden KI-Infrastrukturplattformen validiert wurde", sagte Liran Zvibel, Mitbegründer und CEO von WEKA. „Bei der Skalierung agentenbasierter KI geht es nicht nur um reine Rechenleistung, sondern darum, die Speicherbarriere mit intelligenten Datenpfaden zu überwinden. Mit Augmented Memory Grid können Kunden mehr Token pro GPU ausführen, mehr gleichzeitige Benutzer unterstützen und völlig neue Servicemodelle für Workloads mit langem Kontext erschließen. Die Bare-Metal-Infrastruktur von OCI mit leistungsstarken RDMA-Netzwerk- und GPUDirect-Speicherfunktionen macht sie zu einer einzigartigen Plattform für die Beschleunigung von Inferenz in großem Maßstab."
Heutige Inferenzsysteme stehen vor einer grundlegenden Einschränkung: GPU-Speicher mit hoher Bandbreite (HBM) ist außerordentlich schnell, aber in seiner Kapazität begrenzt, während System-DRAM mehr Speicherplatz, aber weitaus weniger Bandbreite bietet. Sobald beide Ebenen gefüllt sind, werden Key-Value-Cache-Einträge (KV-Cache) entfernt und GPUs müssen bereits verarbeitete Tokens neu berechnen, was Zyklen, Strom und Zeit verschwendet.
Das Augmented Memory Grid von WEKA durchbricht die GPU-Speicherbarriere, indem es eine Hochgeschwindigkeitsbrücke zwischen dem GPU-Speicher (in der Regel HBM) und dem Flash-basierten Speicher schafft. Es streamt kontinuierlich Key-Value-Cache-Daten zwischen dem GPU-Speicher und dem Token-Warehouse von WEKA und nutzt dabei RDMA und NVIDIA Magnum IO GPUDirect Storage, um Speichergeschwindigkeiten zu erreichen. Dadurch können große Sprach- und agentenbasierte KI-Modelle auf weitaus mehr Kontext zugreifen, ohne zuvor berechnete KV-Cache-Daten oder zuvor generierte Tokens neu berechnen zu müssen, was die Effizienz und Skalierbarkeit erheblich verbessert.
OCI-getestete Leistung und Ökosystemintegration Unabhängige Tests, einschließlich der Validierung auf OCI, haben Folgendes bestätigt:
-
1000-mal mehr KV-Cache-Kapazität bei Beibehaltung einer nahezu speicherähnlichen Leistung.
-
20-mal schnellere Zeit bis zum ersten Token bei der Verarbeitung von 128.000 Token im Vergleich zur Neuberechnung der Vorfüllphase.
-
7,5 Mio. Lese-IOPs und 1,0 Mio. Schreib-IOPs in einem Cluster mit acht Knoten.
Für KI-Cloud-Anbieter, Modellanbieter und KI-Entwickler in Unternehmen verändern diese Leistungssteigerungen die Wirtschaftlichkeit der Inferenz grundlegend. Durch die Eliminierung redundanter Vorabfüllvorgänge und die Aufrechterhaltung hoher Cache-Trefferquoten können Unternehmen die Mandantendichte maximieren, Leerlaufzyklen der GPU reduzieren und den ROI pro Kilowattstunde drastisch verbessern. Modellanbieter können nun profitabel Modelle mit langem Kontext bereitstellen, die Kosten für Eingabetoken senken und völlig neue Geschäftsmodelle rund um persistente, zustandsbehaftete KI-Sitzungen ermöglichen.
Die Umstellung auf kommerzielle Verfügbarkeit spiegelt die enge Zusammenarbeit mit führenden Partnern im Bereich KI-Infrastruktur wider, darunter NVIDIA und Oracle. Die Lösung ist eng mit NVIDIA GPUDirect Storage, NVIDIA Dynamo und NVIDIA NIXL integriert, wobei WEKA ein spezielles Plugin für die NVIDIA Inference Transfer Library (NIXL) als Open Source zur Verfügung gestellt hat. Die Bare-Metal-GPU-Rechenleistung von OCI mit RDMA-Netzwerk und NVIDIA GPUDirect Storage-Funktionen bietet die leistungsstarke Grundlage, die WEKA benötigt, um ein Augmented Memory Grid ohne Leistungseinbußen in cloudbasierten KI-Bereitstellungen bereitzustellen.
„Die Wirtschaftlichkeit groß angelegter Inferenzprozesse ist für Unternehmen ein wichtiger Faktor", so Nathan Thomas, Vice President, Multicloud, Oracle Cloud Infrastructure. „Das Augmented Memory Grid von WEKA stellt sich dieser Herausforderung direkt. „Die 20-fache Verbesserung der Zeit bis zum ersten Token, die wir in gemeinsamen Tests auf OCI beobachtet haben, ist nicht nur eine Leistungskennzahl, sondern verändert grundlegend die Kostenstruktur für die Ausführung von KI-Workloads. Für unsere Kunden wird dadurch die Bereitstellung der nächsten Generation von KI einfacher und kostengünstiger."
Kommerzielle Verfügbarkeit Augmented Memory Grid ist jetzt als Funktion für NeuralMesh-Bereitstellungen und auf dem Oracle Cloud Marketplace enthalten. Die Unterstützung für weitere Cloud-Plattformen wird in Kürze folgen.
Organisationen, die sich für den Einsatz von Augmented Memory Grid interessieren, sollten die Weka-Seite Augmented Memory Grid besuchen, um mehr über die Lösung und die Qualifizierungskriterien zu erfahren.
Informationen zu WEKA WEKA verändert mit NeuralMesh™, seinem intelligenten, adaptiven Mesh-Speichersystem, die Art und Weise, wie Unternehmen KI-Workflows aufbauen, ausführen und skalieren. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit steigender Arbeitslast langsamer und anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller, leistungsfähiger und effizienter. Es passt sich dynamisch an KI-Umgebungen an und bietet so eine flexible Grundlage für Unternehmens-KI und agentenbasierte KI-Innovationen. NeuralMesh genießt das Vertrauen von 30 % der Fortune-50-Unternehmen und unterstützt führende Unternehmen, KI-Cloud-Anbieter und KI-Entwickler dabei, GPUs zu optimieren, KI schneller zu skalieren und Innovationskosten zu senken. Erfahren Sie mehr auf www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X.
WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein.
Foto - https://mma.prnewswire.com/media/2825138/PR_WEKA_Augmented_Memory_Grid.jpg Logo - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/weka-durchbricht-die-ki-speicherbarriere-mit-augmented-memory-grid-auf-neuralmesh-302619345.html

19.11.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen: EQS News
|
2232198 19.11.2025 CET/CEST
|
| 29.10.2025 | WEKA kündigt neue NeuralMesh-Architektur für NVIDIA BlueField-4 an
|
WEKA
/ Schlagwort(e): Produkteinführung
WEKA kündigt neue NeuralMesh-Architektur für NVIDIA BlueField-4 an
29.10.2025 / 17:35 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Revolutionäres Plattformdesign stellt eine bedeutende Entwicklung in der KI-Infrastruktur dar und eliminiert traditionelle CPU-Anforderungen, während es gleichzeitig eine bahnbrechende Leistungsdichte, lineare Skalierbarkeit und außergewöhnliche Energieeffizienz für KI-Fabriken in Unternehmen bietet
WASHINGTON und CAMPBELL, Kalifornien, 29. Oktober 2025 /PRNewswire/ -- Von GTC Washington, D.C. 2025: WEKA hat heute bekannt gegeben, die nächste Generation von „NeuralMesh™ by WEKA®", seinem intelligenten Speichersystem, für die neu angekündigte NVIDIA-BlueField-4 Datenverarbeitungseinheit (DPU) zu entwickeln und damit einen grundlegenden Wandel in der Art und Weise zu kennzeichnen, wie KI-Infrastrukturen entwickelt und eingesetzt werden. Dieser bahnbrechende Ansatz macht eigenständige CPU-Server überflüssig und nutzt stattdessen die beispiellose Netzwerkbandbreite von 800 Gb/s sowie die 6-fache Rechenleistung von NVIDIA BlueField-4, um das zu liefern, was WEKA-Geschäftsführer Liran Zvibel als „die perfekte Grundlage für die Zukunft der KI-Dateninfrastruktur" bezeichnet.

Neukonzeption der KI-Infrastrukturarchitektur Anstatt NeuralMesh auf herkömmlichen Servern mit separaten CPUs einzusetzen, wird die neue Generation der NeuralMesh-Speichersoftware von WEKA direkt auf NVIDIA BlueField-4 laufen, was die Bereitstellung von KI-Infrastrukturen grundlegend vereinfacht sowie gleichzeitig die Wirtschaftlichkeit, Leistung und Energieeffizienz drastisch verbessert. Diese architektonische Veränderung stellt WEKAs bisher größte Übereinstimmung mit NVIDIAs Infrastruktur-Roadmap und Vision für das KI-Rechenzentrum dar.
Die perfekte Ergänzung für moderne KI-Infrastrukturen NVIDIA BlueField-4 bietet programmierbare Infrastruktur, Beschleunigung, Zero-Trust-Sicherheit sowie massive Netzwerkfunktionen, die sich nahtlos in die Microservices-basierte Mesh-Architektur von NeuralMesh einfügen. In Verbindung mit den neuesten beschleunigten Rechenplattformen von NVIDIA bilden BlueField-4 und NeuralMesh eine einheitliche, effiziente Grundlage für KI-Fabriken im Gigaskalenbereich.
„Die rasante Entwicklung der KI erfordert eine intelligente Dateninfrastruktur, die sich mit beispielloser Effizienz anpassen und skalieren lässt", sagt Liran Zvibel, Mitbegründer und Geschäftsführer von WEKA. „Die NeuralMesh-Architektur von WEKA, die für NVIDIA BlueField-4 entwickelt wurde, ist ein enormer Fortschritt und bildet die Grundlage für die KI-Fabriken der nächsten Generation."
„Die Anforderungen von KI und anderen Inferenz-Workloads erfordern eine neue Grundlage für die Dateninfrastruktur – eine, die Rechenleistung, Netzwerk und Speicher für beispiellose Effizienz sowie Skalierbarkeit vereint", sagte Justin Boitano, Vizepräsident für Unternehmensprodukte bei NVIDIA. „Mit der NVIDIA-BlueField-4-Integration unterstützt das NeuralMesh-Speichersystem von WEKA diese architektonische Transformation, um eine effiziente Datenverarbeitung in Gigascale-KI-Fabriken zu ermöglichen."
Vorteile der BlueField-4-gestützten Architektur WEKAs NeuralMesh-Speichersystem der nächsten Generation, welches auf BlueField-4 aufbaut, bietet:
-
Außergewöhnliche Leistungseffizienz: Über 100-fache Token/Watt-Verbesserung für agentenbasierte KI-Arbeitsabläufe
-
Vereinfachte Infrastruktur: Der Bedarf an dedizierten Speicherservern mit eigenständigen CPUs entfällt, was die Komplexität und den Platzbedarf reduziert.
-
Überlegene Wirtschaftlichkeit: Drastische Senkung der Infrastrukturkosten durch Konsolidierung von Rechen-, Netzwerk- und Speicherfunktionen.
-
Verbesserte Leistung: Nutzt die 800 Gb/s-Netzwerkleistung von BlueField-4 sowie die 6-fache Rechenleistung für unübertroffene Datenübertragungsgeschwindigkeiten.
-
Nahtlose Integration: Passt zu NVIDIAs Infrastruktur-Roadmap und KI-Fabrikarchitekturen.
-
Zero-Trust-Sicherheit: Integrierte Sicherheitsbeschleunigung und Tenant-Isolation mit Leitungsgeschwindigkeit durch das „NVIDIA DOCA™ Software Framework".
Eine Zusammenarbeit für das Zeitalter des logischen Denkens WEKA und NVIDIA arbeiten seit fast einem Jahrzehnt eng zusammen: NVIDIA AI Enterprise Software, WEKA hat mehrere NVIDIA-Zertifizierungen erhalten und arbeitet an der Einführung neuer NVIDIA-Technologien. Die NeuralMesh-Speichersoftware, die auf BlueField-4 basiert, stellt die bisher eingehendste Integration von NVIDIA-Technologien in WEKA dar.
„Energieeffizienz ist der Schlüssel für die Inbetriebnahme von KI-Fabriken im Gigastandard. NVIDIA BlueField-4 und die NeuralMesh-Speichersoftware von WEKA werden diese Herausforderung direkt angehen und eine bahnbrechende Token-pro-Watt-Effizienz liefern, ohne Kompromisse bei Leistung, Skalierbarkeit oder Betriebsfreundlichkeit einzugehen. Wir betrachten die Integration von NeuralMesh in BlueField-4 als einen strategischen Wachstumsmotor, der die Bereitstellung von KI-Fabriken für unsere Kunden vereinfachen und beschleunigen kann", sagte Nilesh Patel, Strategievorstand bei WEKA.
Verfügbarkeit und nächste Schritte WEKA arbeitet aktiv an der Entwicklung der nächsten Generation der NeuralMesh-Software für NVIDIA BlueField-4. Detaillierte Informationen zur Roadmap werden Anfang 2026 mit Kunden und Partnern ausgetauscht. Organisationen, die mehr über die NeuralMesh-Architektur von WEKA erfahren möchten, können sich direkt an WEKA wenden oder www.weka.io besuchen.
Informationen zu WEKA WEKA verändert die Art und Weise, wie Unternehmen KI-Arbeitslasten erstellen, ausführen und skalieren, mit NeuralMesh™ by WEKA®, seinem intelligenten, adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit zunehmender Arbeitsbelastung langsamer und anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller, stabiler sowie effizienter und wächst dynamisch mit KI-Umgebungen mit, um eine flexible Grundlage für KI-Innovationen in Unternehmen und Agenten zu schaffen. NeuralMesh genießt das Vertrauen von 30 % der Fortune 50 und hilft führenden Unternehmen, KI-Cloud-Anbietern sowie KI-Entwicklern, ihre GPUs zu optimieren, KI schneller zu skalieren und ihre Innovationskosten zu senken. Erfahren Sie mehr auf www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X.
WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen können Marken der jeweiligen Eigentümer sein.
Foto – https://mma.prnewswire.com/media/2806613/Weka_nvidia_AI_Factory.jpg Logo– https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/weka-kundigt-neue-neuralmesh-architektur-fur-nvidia-bluefield-4-an-302598630.html

29.10.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen: EQS News
|
2220716 29.10.2025 CET/CEST
|
| 23.10.2025 | DCAI erweitert KI-Infrastruktur-Angebot mit integrierten Speicherdiensten von WEKA
|
WEKA
/ Schlagwort(e): Produkteinführung
DCAI erweitert KI-Infrastruktur-Angebot mit integrierten Speicherdiensten von WEKA
23.10.2025 / 18:00 CET/CEST
Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
DCAI liefert Leistung der Hyperscaler-Klasse für Speicher sowie Rechner und ergänzt den dänischen Gefion Supercomputer mit WEKAs NeuralMesh-Technologie
KOPENHAGEN, Dänemark und CAMPBELL, Kalifornien, 23. Oktober 2025 /PRNewswire/ -- Das Dänische Zentrum für KI-Innovation (DCAI), Betreiber von Gefion – einem der leistungsstärksten KI-Supercomputer Europas – und WEKA, das KI-Speicherunternehmen, gaben heute den Start einer der ersten vollständig souveränen, durchgängig verschlüsselten KI-Infrastrukturen Europas bekannt, die Hochleistungsrechner sowie -speicher in einer einzigen Plattform vereint. Der Einsatz markiert einen Wendepunkt für die europäische KI-Innovation und bietet Hyperscaler-Funktionen mit garantierter Datenhoheit.
Mit diesen zusätzlichen 140 Petabyte (PB) nutzbarer Speicherkapazität – einschließlich 80 PB leistungsoptimierter NVMe-SSDs, die auf WEKAs NeuralMesh™ Speichersoftware laufen – bietet Gefion nun eine komplette KI-Fabrik, in der europäische Unternehmen Modelle trainieren, Daten verwalten sowie intelligente Systeme einsetzen können, ohne Kompromisse bei Souveränität, Sicherheit oder Leistung einzugehen.
Vereinheitlichung von Rechen- und Speicherleistung Bislang verließen sich Kunden auf DCAI in erster Linie, um Zugang zu modernster Rechenleistung für das Training und die Bereitstellung ihrer KI-Modelle in großem Umfang zu erhalten. Mit der Einführung dieses Speicherdienstes können sie nun ihren gesamten KI-Arbeitsablauf – von der Datenaufnahme bis zur Modellbereitstellung – innerhalb einer einzigen vertrauenswürdigen Infrastruktur verwalten.
„Unsere Aufgabe ist es, Innovatoren die Infrastruktur zur Verfügung zu stellen, die sie brauchen, um die Zukunft zu gestalten", sagte Nadia Carlsten, Geschäftsführer bei DCAI. „Durch die Erweiterung unserer Plattform um Speicher machen wir es unseren Kunden einfacher, KI-Arbeitslasten an einem Ort auszuführen – mit demselben Maß an Leistung, Souveränität und Sicherheit, das sie von unseren Compute-Services gewohnt sind."
Die NeuralMesh-Architektur von WEKA liefert noch nie dagewesene Leistungsdaten für KI-Infrastrukturen. Sie ermöglicht KI-Trainings- sowie Inferenz-Arbeitslasten mit einer Latenzzeit von weniger als einer Millisekunde und beseitigt gleichzeitig herkömmliche Engpässe bei der Dateneingabe und -ausgabe (IO), die sich auf die GPU-Auslastung und Leistung auswirken.
Neudefinition der Wirtschaftlichkeit und Effizienz von KI-Infrastrukturen Durch die Kombination der NeuralMesh-Software von WEKA mit dem NVIDIA-GPU-Cluster von Gefion hat DCAI einen kopierfreien Datenpfad mit hohem Durchsatz geschaffen, der die GPUs kontinuierlich mit Daten versorgt. Dieser architektonische Ansatz verändert die effektive GPU-Nutzung, indem sie eine echte souveräne mandantenfähige Zusammenstellung ermöglicht, die sicherstellt, dass die Rechenkapazitäten in Forschung, Unternehmen sowie Behörden kontinuierlich genutzt werden, ohne die Sicherheit oder Datenisolierung zu beeinträchtigen.
Die Integration bringt auch erhebliche Kosten- und Nachhaltigkeitsvorteile mit sich. Die einstufige, softwaredefinierte Architektur von DCAI reduziert den Platzbedarf für die Infrastruktur, den Energieverbrauch und die betriebliche Komplexität im Vergleich zu herkömmlichen mehrstufigen Systemen. Durch den Wegfall der Datenreplikation oder des externen Cloud-Austritts können Kunden ihre Gesamtbetriebskosten erheblich senken und gleichzeitig ihre grünen KI-Ziele vorantreiben.
Beschleunigung von KI-Innovationen im großen Maßstab Die Plattform plant außerdem, die „Augmented Memory Grid™"-Technologie von WEKA in Zukunft zu nutzen, um eine außergewöhnliche Time-to-First-Token-Performance für große Sprachmodelle und Inferenz-Arbeitslasten zu liefern, die es Kunden ermöglicht:
-
Optimieren Sie durchgängige KI-Arbeitsabläufe von der Dateneingabe bis zur Modellbereitstellung innerhalb einer einzigen vertrauenswürdigen Infrastruktur.
-
Dynamisches Umschalten zwischen Rechen- und Speicherressourcen, um sofort hochleistungsfähige Schulungsaufträge oder Inferenzendpunkte zu starten.
-
Aufrechterhaltung einer konsistenten Leistung unter mandantenfähigen Bedingungen mit einer Latenzzeit von unter einer Millisekunde.
-
Skalierung von Petabytes bis Exabytes ohne architektonische Einschränkungen oder Leistungseinbußen.
Speziell für regulierte Industrien Die Architektur von DCAI berücksichtigt die kritischen Souveränitätsanforderungen, die viele europäische Unternehmen daran gehindert haben, KI-Innovationen vollständig zu nutzen. Die Plattform bietet:
-
Ende-zu-Ende-Verschlüsselung ohne Zugriff des Betreibers auf die Kundendaten.
-
Vollständige Einhaltung der EU-Mandate zur Datenhoheit und unabhängige Datenschutzaudits.
-
End-to-End-Datenhoheit
„Die KI-Industrie verlagert sich in einem unvorstellbaren Tempo von der Petascale zur Exascale. Europas KI-Innovatoren brauchen eine Infrastruktur, die sich nahtlos anpassen und skalieren lässt, um diese Beschleunigung des Datenwachstums sowie die Anforderungen rechenintensiver Arbeitslasten zu unterstützen", so Liran Zvibel, Geschäftsführer und Mitbegründer von WEKA. „DCAI und WEKA bieten den dänischen und europäischen Organisationen die Grundlage für den Aufbau von KI-Fabriken sowie den Einsatz intelligenter Systeme, die von Petabytes auf Exabytes anwachsen können – und dabei erstklassige Leistung mit der Datenhoheit und Sicherheit bieten, welche die europäischen Vorschriften verlangen."
„Bisher standen die europäischen Organisationen vor einer unmöglichen Wahl: die Leistung und den Umfang der Hyperscaler-KI-Infrastruktur zu akzeptieren und gleichzeitig die Datenhoheit aufzugeben, oder die Datenkontrolle zu behalten sowie sich mit fragmentierten, leistungsschwachen Systemen zufrieden zu geben", fügt Carlsten hinzu. „Durch die Integration von WEKAs Technologie mit unserem NVIDIA-Supercomputer haben wir eine KI-Plattform geschaffen, die diesen Kompromiss völlig ausschließt."
Verfügbarkeit Die neue Speicherplattform von DCAI ist ab sofort für ausgewählte Kunden aus den Bereichen Unternehmen, Forschung und Behörden verfügbar, eine breitere Einführung ist für das erste Quartal 2026 geplant.
Informationen zu DCAI Das Dänische Zentrum für KI-Innovation (DCAI) ist ein Anbieter von KI-Infrastruktur und -Dienstleistungen, der Gefion, Dänemarks Vorzeige-KI-Supercomputer, besitzt und betreibt. DCAI hat es sich zur Aufgabe gemacht, die Hürden für den Zugang zu den modernsten Rechenkapazitäten mit garantierter Datensouveränität zu senken, damit europäische Unternehmen mit Zuversicht innovieren können. Zu den Kunden von DCAI gehören akademische Forscher, Start-ups, Institutionen des öffentlichen Sektors und Unternehmen, welche die Möglichkeiten der souveränen KI nutzen, um Forschung und Innovation zu beschleunigen.
Informationen zu WEKA WEKA verändert die Art und Weise, wie Unternehmen KI-Arbeitslasten erstellen, ausführen und skalieren, mit NeuralMesh™ by WEKA®, seinem intelligenten, adaptiven Mesh-Speichersystem. Im Gegensatz zu herkömmlichen Dateninfrastrukturen, die mit zunehmender Arbeitsbelastung langsamer und anfälliger werden, wird NeuralMesh mit zunehmender Skalierung schneller, stabiler sowie effizienter und wächst dynamisch mit KI-Umgebungen mit, um eine flexible Grundlage für KI-Innovationen in Unternehmen und Agenten zu schaffen. NeuralMesh genießt das Vertrauen von 30 % der Fortune 50 und hilft führenden Unternehmen, KI-Cloud-Anbietern sowie KI-Entwicklern, ihre GPUs zu optimieren, KI schneller zu skalieren und ihre Innovationskosten zu senken. Erfahren Sie mehr auf www.weka.io oder verbinden Sie sich mit uns bei LinkedIn und X.
WEKA und das W-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier genannte Markennamen sind die Marken der jeweiligen Eigentümer.
Foto – https://mma.prnewswire.com/media/2802887/WEKA_DCAI_Expands_AI_Infrastructure.jpg Logo – https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
View original content:https://www.prnewswire.com/de/pressemitteilungen/dcai-erweitert-ki-infrastruktur-angebot-mit-integrierten-speicherdiensten-von-weka-302593028.html

23.10.2025 CET/CEST Veröffentlichung einer Corporate News/Finanznachricht, übermittelt durch EQS News - ein Service der EQS Group. Für den Inhalt der Mitteilung ist der Emittent / Herausgeber verantwortlich.
Die EQS Distributionsservices umfassen gesetzliche Meldepflichten, Corporate News/Finanznachrichten und Pressemitteilungen.
Originalinhalt anzeigen: EQS News
|
2217968 23.10.2025 CET/CEST
|