Dieser Beitrag erschien im Original im englischsprachigen Blog von Fsas Technologies.
Die digitale Landschaft verändert sich – und eine stille Revolution ist im Gange. Lange war die Cloud der Inbegriff von Flexibilität und Skalierbarkeit und es galt als sicher, kritische Infrastrukturen dorthin auszulagern. Doch angesichts steigender Sicherheitsbedrohungen und geopolitischer Spannungen gerät diese Überzeugung ins Wanken. Datenhoheit und Compliance, früher Nischenthemen, stehen heute im Zentrum – besonders in stark regulierten Branchen. Der Wilde Westen cloudbasierter Künstlicher Intelligenz (KI) bietet verlockende Möglichkeiten, fordert jedoch oft Zugeständnisse in Bezug auf Kontrolle und Privatsphäre. Viele Unternehmen fühlen sich dadurch zunehmend exponiert und verwundbar.
Genau hier setzt Private GPT von Fsas Technologies an. Als lokale On-Premises-KI-Lösung bietet sie einen vollständigen, eigenständigen Stack, der Unternehmen die volle Kontrolle über ihre Daten und ihre KI zurückgibt. Stellen Sie sich die Leistungsfähigkeit moderner KI vor – ohne die ständige Sorge vor Datenlecks, Compliance-Verstößen oder geopolitischen Risiken, die Ihre Abläufe beeinflussen könnten. Private GPT entschärft diese Risiken, indem die gesamte Lösung – von Ihren sensiblen Daten bis zu den KI-Modellen – innerhalb Ihrer eigenen Infrastruktur verbleiben.
Damit erhalten Sie die vollständige Kontrolle, maximale Sicherheit und die Gewissheit echter Datenhoheit. Gleichzeitig verbindet Private GPT alle relevanten Datenquellen und wird so zum zentralen Knotenpunkt für eine vollständige Transparenz über Ihre KI-Prozesse.
Daher freuen wir uns, die Veröffentlichung von Private GPT v1.5 bekannt zu geben – ein Update, das auf dieser Grundlage aufbaut und noch mehr Leistung, Präzision und Datenschutz bietet. Werfen wir einen Blick auf die wichtigsten Neuerungen.
Private GPT v1.5.0: Ein großer Schritt für On-Premises-KI
Die erste Version von v1.5.0 bringt eine Reihe von Verbesserungen, die Private GPT noch intelligenter, schneller und anpassungsfähiger machen.
Upgrade des Standard-LLM: Mistral 3.1 Small (8-bit-quantized)
Ein echter Meilenstein: Das Standardmodell wurde von Mistral Nemo auf das leistungsstarke Mistral 3.1 Small (8-Bit quantisiert) aktualisiert. Das 24-Milliarden-Parameter-Modell zeichnet sich durch einen hervorragenden Textfluss, das Verständnis mehrerer Sprachen und eine strikte Befolgung von Anweisungen aus. Dank 8-Bit-Quantisierung läuft es effizient auf Ihrer Hardware – bei spürbar höherer Genauigkeit und Geschwindigkeit. Sie erhalten schneller präzisere Antworten und das vollständig innerhalb Ihres privaten Netzwerks.
API 2.0
Die neue API 2.0 bietet verbesserte Integrationsmöglichkeiten und ermöglicht es Entwickler*innen, Private GPT noch nahtloser in bestehende Unternehmensanwendungen und Workflows einzubinden. Neben einer stärker feingranularen Steuerung und einer höheren Flexibilität lässt sich PrivateGPT jetzt noch einfacher über den gesamten Tech-Stack hinweg nutzen.
Hybrid RAG: Intelligenterer Umgang mit Kontext
Hybrid RAG (Retrieval-Augmented Generation) revolutioniert die Art, wie Private GPT Kontext-Informationen verarbeitet. Statt nur einzelne Textfragmente abzurufen, kann das System nun ganze Dokumente als Kontext einbeziehen, sofern sie in das Eingabefenster des LLM passen. Das sorgt für umfassendere, relevantere Antworten – und für ein deutlich tieferes Verständnis Ihrer Daten durch das Modell.
XML-Unterstützung
Private GPT kann nun auch strukturierte Daten aus XML-Dateien extrahieren und verstehen. Damit erweitert sich die Bandbreite der Datenquellen aus Ihrem Unternehmen, die Sie in Ihre KI-Anwendungen integrieren können – zusätzlich zur bestehenden Unterstützung für HTML und andere Formate.
Summaries 2.0
Mit der neuen Version gelingt es Private GPT noch einmal deutlich besser, lange Texte präzise und kontextbewusst zusammenzufassen. Durch ein gestiegenes Verständnis von Struktur und Kontext der verarbeiteten Dokumente kann das Modell nun hochqualitativere Zusammenfassungen schaffen, die zentrale Informationen und Nuancen enthalten. Das spart Ihnen wertvolle Zeit und vereinfacht den Zugriff auf Informationen.
Scenarios 2.0: Vollständige Prompt-Anpassung
Mit Scenarios 2.0 erhalten Sie maximale Kontrolle über die Gestaltung von Prompts und das Verhalten der Modelle. Sie können jetzt:
- Systemprompts dynamisch anpassen (z. B. mit Variablen wie cutoff_date oder user_name).
- Zentrale Parameter wie Kreativität oder Chunk-Anzahl verändern.
- Definieren, wie die KI vor, während und nach der Nutzeranfrage reagieren soll.
Damit lassen sich hochspezialisierte KI-Assistenten, Compliance-Bots oder Customer-Service-Agenten entwickeln – maßgeschneidert für Ihren Anwendungsfall. Scenarios sind außerdem für eine einfache Integration vollständig per API steuerbar.
RAG History 1.0: Kontext über mehrere Gesprächsrunden
Unser neues RAG History (Smart History Agent) Scenario ermöglicht es dem System, Nachfolgefragen über multiple Chats hinweg zu verstehen. Dieses Limited-Release-Feature¹ schreibt Nutzereingaben automatisch um oder zerlegt sie in Teilanfragen (wie auch in den neuen Funktionen „Query Rewriting“ und „Query Decomposition“). So entstehen optimierte Suchanfragen. Dabei filtert es irrelevante Anweisungen heraus und zieht relevanten Kontext sowohl aus der Knowledge Base als auch aus dem laufenden Chat. Damit eignet es sich ideal für natürliche, mehrstufige Gespräche in Forschungs-, Support- und internen Wissensanwendungsfällen und ermöglicht eine deutlich intuitivere, menschlichere Interaktion.
Blick über v1.5.0 hinaus: Das kommt als Nächstes!
Das 1.5.0-Release ist nicht das Ende der Entwicklungen. Wir arbeiten bereits intensiv an weiteren Updates, welche die Grenzen von On-Premises-KI zunehmend erweitern werden.
Context Precision Analysis (CPA)
Diese Funktion ermöglicht ein tieferes Verständnis und eine genauere Bewertung der Relevanz und Genauigkeit des abgerufenen Kontexts. Das führt zu präziseren Antworten und reduziert das Risiko, dass die KI Informationen auf der Basis irrelevanter Datenpunkte generiert. Hinweis: Diese Funktion ist – ebenso wie Knowledge Graphs – derzeit ein kostenpflichtiges Zusatzfeature und nicht in den Standard-Lizenzmodellen enthalten.
Multi-GPU-Support, Wechsel des Standard-LLMs und nicht-quantisiertes Mistral Small 3.1
Eine Multi-GPU-Unterstützung erlaubt es Ihnen, leistungsstärkere Hardwarekonfigurationen zu nutzen, die Verarbeitung zu beschleunigen und komplexere KI-Aufgaben auszuführen. Die Möglichkeit, das Standard-LLM zu wechseln (aus einer vordefinierten, zertifizierten Auswahlliste oder als Bestandteil der Lösung spezifiziert), bietet eine höhere Flexibilität und ermöglicht es Ihnen, das jeweils beste Modell für unterschiedliche Workloads einzusetzen. Zusätzlich wird eine nicht-quantisierte Version von Mistral Small 3.1 verfügbar sein – für alle, die maximale Genauigkeit und Performance benötigen, auch wenn dies erhöhte Hardwareanforderungen bedeutet.
MCP-Integration, Alliance-Partner-Support und erweitertes Function-/Tool-Calling
Die Integration des Model Context Protocol (MCP) schafft eine standardisierte Grundlage dafür, wie Private GPT Kontext über verschiedene KI-Modelle und Komponenten in Ihrer Organisation hinweg verwaltet, teilt und versteht. Dadurch entsteht eine höhere Konsistenz und Effizienz im Umgang mit Kontextinformationen – ein entscheidender Faktor für robuste und verlässliche KI-Anwendungen. Wir freuen uns außerdem, die Unterstützung unseres Allianzpartners NetApp ankündigen zu können, die eine nahtlose Integration mit bestehenden Data-Management- und Storage-Lösungen ermöglicht. Schließlich wird erweitertes Function-/Tool-Calling Private GPT in die Lage versetzen, mit externen Systemen und Anwendungen zu interagieren, sodass es sich von einem reinen Textgenerator zu einem wirklich intelligenten, handlungsfähigen Agenten entwickelt.
Da sich die Entwicklung rasant weiterbewegt und sich Prioritäten in der Branche verändern, können sich die oben genannten Funktionen ändern und der Entwicklungszyklus kann angepasst werden, um Markt- und Kundenanforderungen gerecht zu werden. Die neuesten Informationen finden Sie in unserer öffentlichen Roadmap.
Die Zukunft ist Private: Ihre KI, Ihre Regeln
Der Markt bewegt sich: Die Zeit, in der Unternehmen kritische KI-Workloads und sensible Daten bedenkenlos öffentlichen Cloud-Plattformen anvertrauen, neigt sich für viele strategische Organisationen dem Ende zu. Fsas Technologies ist sich dieser Entwicklung bewusst. Mit Private GPT v1.5 navigieren wir die entsprechenden Veränderungen, indem wir Ihnen eine hochmoderne, sichere und vollständig private KI-Lösung an die Hand geben.
Es ist Zeit, Ihre KI wieder in die eigene Hand zu nehmen. Es ist Zeit, Ihre Daten zu schützen. Es ist Zeit, Compliance ohne Kompromisse zu gewährleisten.
Warten Sie nicht länger, um die Kontrolle zurückzugewinnen. Kontaktieren Sie uns noch heute (ai.team@fujitsu.com), um mehr über Private GPT v1.5 zu erfahren und wie es Ihre Enterprise-AI-Strategie sichern und transformieren kann – oder melden Sie sich für einen AI Test Drive an.
Lassen Sie uns Ihnen zeigen, wie echte Datenhoheit in Kombination mit fortschrittlicher KI Ihr Unternehmen weiter voranbringen kann – zu Ihren Bedingungen.
Fußnoten
1 Der Begriff „Limited-Release-Feature“ bedeutet, dass diese Funktion derzeit nur für szenariobasierte Prompts verfügbar ist; eine Erweiterung darüber hinaus wird für zukünftige Versionen geprüft.


