Dieser Beitrag erschien im Original im englischsprachigen Blog von Fsas Technologies.
Bei Fsas Technologies sind wir überzeugt, dass eine echte Demokratisierung von Künstlicher Intelligenz nicht allein bedeutet, Algorithmen verfügbar zu machen. Entscheidend ist vielmehr, die KI leistungsfähig und für jeden zugänglich zu gestalten – für individuelle Innovator*innen ebenso wie für große Unternehmen. Unser zentrales Ziel ist es, die notwendige Performance für Innovationen in die Hände vieler zu legen. Damit verfolgen wir den Anspruch, den gesamten KI-Lebenszyklus zu beschleunigen – von der Datensynthese über das Training bis hin zur Bereitstellung – und einer breiteren Zielgruppe zu ermöglichen, das transformative Potenzial von KI zu nutzen.
Das Fundament: KI-Potenziale durch leistungsfähige Hardware erschließen
Der Weg zur Demokratisierung von KI beginnt mit der Überwindung von Leistungs-Engpässen. So wichtig optimierte Algorithmen auch sind – ohne ein belastbares Hardware-Fundament stoßen sie schnell an ihre Grenzen. Genau hier unterscheidet sich Fsas Technologies von anderen Anbietern.
Wir verfügen über ein breit aufgestelltes Hardware-Portfolio innerhalb unserer PRIMERGY Produktlinie und arbeiten darüber hinaus eng mit Branchenführern wie Supermicro zusammen. Dieser strategische Ansatz ermöglicht es uns, ein breites Spektrum an KI-Workloads zu unterstützen – von der Datensynthese und dem Fine-Tuning über rechenintensives Training bis hin zum produktiven Einsatz.
Unsere Hardware ist dabei nicht nur leistungsstark, sondern bewusst als Grundlage für Innovationen konzipiert. Ergänzt durch eine nahtlose Hybrid-Cloud-Integration bietet sie ein Höchstmaß an Flexibilität und Skalierbarkeit.
Mehr als nur Hardware: KI-Einführung entmystifizieren und Risiken reduzieren
Ein weit verbreitetes Missverständnis ist, dass unser Ansatz ausschließlich hardwarezentriert sei. Tatsächlich geht es um die effiziente Nutzung einer leistungsfähigen Hardwareplattform und eines abgestimmten Portfolios.
Wir wissen, dass die korrekte Dimensionierung von Hardware für KI-Workloads komplex sein kann – und nicht selten zu Über- oder Unterinvestitionen führt. Genau an dieser Stelle setzen wir an und machen den Prozess transparent und nachvollziehbar.
Unsere Strategie verfolgt einen strukturierten Ansatz zur KI-Einführung: von „Bring your own data“, bei dem wir vollständige Lösungsstacks wie Private GPT bereitstellen, bis hin zu „Bring your own AI“, bei dem wir uns auf die Infrastruktur für Workloads konzentrieren.
Durch praxisnahe Benchmarks und realistische Szenarien nehmen wir unseren Kunden die Unsicherheit bei Investitionsentscheidungen. Das reduziert sowohl finanzielle Risiken als auch laufende Betriebskosten, etwa durch den Energieverbrauch. Klare, datenbasierte Einblicke stellen sicher, dass Investitionen gezielt erfolgen – mit minimalem Ressourcenverlust und maximalem Mehrwert.
Praxisbezug: Transparenz durch AI Validated Designs
Wie setzen wir diesen Ansatz konkret um? Durch nachvollziehbare, transparente Beispiele aus der Praxis. Ein aktuelles Beispiel ist unsere Arbeit mit der PRIMERGY GX, für die wir einen Late-Interaction-Encoder (ColBERT-Style) mit 55 Millionen Parametern trainiert haben. Dieses kompakte und effiziente Modell, optimiert für die semantische Suche und reasoning-intensive Retrieval-Szenarien, wurde innerhalb weniger Stunden auf 4× H100 GPUs trainiert.
Zu den zentralen Eigenschaften dieses Modells zählen:
- Kompakt und effizient: Das Modell mit ca. 55 Mio. Parametern erreicht eine hohe Retrieval-Genauigkeit bei geringem Speicherbedarf – ideal für Edge-Szenarien.
- Retrieval-orientiert: Entwickelt für Multi-Vektor-Semantik, semantische Textähnlichkeit (STS) und reasoning-intensive Suchanfragen, optional mit Re-Ranking.
- Edge-optimiert: Geringe Latenz und minimaler Speicherbedarf.
- Trainingsressourcen: Basismodelltraining in 6 Stunden und 25 Minuten auf 4× H100 GPUs; Fine-Tuning des Reasoning-Modells in 3 Stunden und 25 Minuten auf derselben Hardware.
- Datenvolumen: Rund 9,6 Milliarden englische Tokens für das Basistraining sowie 210.000 synthetische Paare für die Reasoning-Spezialisierung.
- Kontextlänge: 2.048 Tokens mit absoluten Positions-Embeddings.
- Anwendungsfälle: Semantische Suche, Sparse Retrieval, reasoning-basierte Anfragebeantwortung und STS.
Wir behaupten nicht nur, dass es funktioniert – wir zeigen konkret, wie.
KI für das Gesundheitswesen – und darüber hinaus
In einem nächsten Schritt optimieren wir ein weiteres Modell mit einem vertikalen Fokus auf das Gesundheitswesen. Damit demonstrieren wir die Anpassungsfähigkeit unseres Ansatzes und dessen Wirkung in unterschiedlichen Branchen.
Dabei zeigen wir konkret, welche Ressourcen für das Training und das Fine-Tuning branchenspezifischer Embedding-Modelle erforderlich sind und wie eine sprach- und terminologiespezifische Ausrichtung – bei gleichzeitiger Beibehaltung von Reasoning-Fähigkeiten – bestehende Lösungen verbessern oder völlig neue Ansätze ermöglichen kann.
Begleitend veröffentlichen wir ein umfassendes technisches Whitepaper, einen Fachartikel sowie das Embedding-Modell selbst auf Hugging Face. Besonders wichtig: Wir stellen dabei auch das vollständige „AI Validated Design“ bereit – inklusive Hardware, Software und Prozessbeschreibung. Diese Transparenz ermöglicht es unseren Kunden, Anforderungen, Leistungsfähigkeit und Machbarkeit vergleichbarer Projekte präzise einzuschätzen.
Wie geht es weiter?
Der nächste Meilenstein ist das Benchmarking unserer Full-Stack-Private-GPT-Lösung. Wir testen deren Performance über verschiedene Hardware-Konfigurationen hinweg – von einzelnen L40s-GPUs bis hin zu Multi-GPU-Setups und H100-Systemen – und veröffentlichen sämtliche Ergebnisse.
Darüber hinaus untersuchen wir, wie sich diese Lösung gemeinsam mit unseren Allianzpartnern weiterentwickeln lässt, etwa durch führende Storage-Technologien oder unterschiedliche Core-Large-Language-Models. So erhalten unsere Kunden einen klaren Überblick über aktuelle Möglichkeiten und zukünftige Erweiterungspotenziale. Weitere Phasen werden sich mit Node-Scaling sowie möglichen Erweiterungen des Turnkey-Ansatzes in Richtung Multimodalität und Multi-Tenancy befassen.
Die Zukunft: Private AI und kontinuierliche Innovation
Unser Engagement, KI einfacher zugänglich zu machen, bleibt unverändert. Wir werden weiterhin neue Modelle trainieren, Ergebnisse veröffentlichen und Modelle selbst bereitstellen – als Teil eines kontinuierlichen Zyklus aus Innovation, Transparenz und Verbesserung.
Ein besonderer Fokus liegt künftig auf sensiblen Datenumgebungen wie der Justiz, dem öffentlichen Sektor und der Verteidigung. In diesen Bereichen sind reine Cloud-Ansätze oft nicht ausreichend. Deshalb entwickeln wir gezielt neue Wege, um „Private AI“ bereitzustellen – unter anderem durch den weiteren Ausbau unserer Private-GPT-Lösung sowie durch ergänzende Alternativen.
Bereit für den nächsten Schritt auf Ihrer KI-Reise?
Bei Fsas Technologies verstehen wir die Einführung von KI nicht als kurzfristige Technologieentscheidung, sondern als Weg in eine Zukunft, in der KI zugänglich, verständlich und wirkungsvoll ist – ohne Kompromisse.
- 👉 Wenn Sie unseren Ansatz zur Überwindung von Hürden bei der KI-Einführung weiterverfolgen möchten, besuchen Sie unsere Website zu AI Validated Designs, die wir kontinuierlich aktualisieren.
- 👉 Möchten Sie mehr über Private GPT erfahren? Dann besuchen Sie unsere Private-GPT-Website.
- 👉 Oder möchten Sie sich für einen AI Test Drive registrieren? Das ist hier möglich.
Für komplexere Anwendungsfälle wenden Sie sich gerne direkt an unser AI-Team unter ai.team@fujitsu.com – wir unterstützen Sie gerne bei Lösungsdesigns, Workshops oder Proofs of Concept.
