• #
  • #

Datensouveränität und AI Act: Warum die interne Kultur des Anbieters Teil des Produkts ist

Jenseits der Infrastruktur: Was ein konversationelles KI-System wirklich vertrauenswürdig macht — und wie Sie Ihren Anbieter mit Kriterien bewerten, die der Großteil des Marktes noch nicht anwendet.

Daniele Dibitonto
Daniele Dibitonto · 06 2026

Inhalt

Was ist souveräne KI?

Souveräne KI — auch als private KI, private AI oder on-premise KI bezeichnet — ist ein Modell der künstlichen Intelligenz, bei dem die Daten des Kunden unter dessen Kontrolle bleiben und in einer Infrastruktur verarbeitet werden, die der Rechtsordnung des Kunden unterliegt. Souveräne KI steht im Gegensatz zum Pay-per-Use-Modell der großen generalistischen Anbieter, bei dem Daten regelmäßig zwischen Rechtsräumen übertragen werden. Sie garantiert Datensouveränität, regulatorische Compliance und vorhersehbare Betriebskosten.

In der Praxis bedeutet souveräne KI, Systeme — auch konversationelle — innerhalb kontrollierter Umgebungen zu konzipieren (on-premise, private Cloud oder hybride Clouds mit ausreichenden vertraglichen und technischen Garantien), mit Zugriffskontrollen, Nachvollziehbarkeit und Auditierbarkeit, die es der Organisation erlauben nachzuweisen, wo jedes Datum liegt, wer es verarbeitet und unter welchem Rechtsrahmen.

So weit, was jedes Unternehmen, das den Markt bereits sondiert, schon weiß. Was folgt, ist das, was die meisten Anbieter unausgesprochen lassen.

AI Act, DSGVO und der deutsche regulatorische Rahmen

Mit der Verabschiedung des EU AI Act und seiner schrittweisen Anwendung zwischen 2025 und 2027 hat sich der Rahmen, in dem deutsche und europäische Unternehmen einen KI-Anbieter auswählen, grundlegend verändert. Die Verpflichtungen zu Transparenz, menschlicher Aufsicht, Bias-Management, Erklärbarkeit von Entscheidungen und Schutz der Grundrechte sind keine optionalen Best Practices mehr: Sie sind vertragliche Anforderungen in jeder ernsthaften Ausschreibung.

In Deutschland artikuliert sich dieser europäische Rahmen mit einem bereits ausgereiften nationalen Umfeld. Die DSGVO bildet die Grundlage des Datenschutzes, ergänzt durch die Aufsicht der BfDI (Bundesbeauftragte für den Datenschutz und die Informationsfreiheit) auf Bundesebene und der jeweiligen Landesdatenschutzbeauftragten. Das BSI (Bundesamt für Sicherheit in der Informationstechnik) definiert die Sicherheitsstandards für IT-Systeme, einschließlich der Anforderungen an KI-Anwendungen in kritischen Sektoren. In den Finanzdienstleistungen kommt die BaFin hinzu, im Gesundheitswesen die spezifischen Anforderungen für Medizinprodukte.

Hinzu kommt eine politisch-strategische Dimension, die in Deutschland besonders ausgeprägt ist: die digitale Souveränität als Achse der Bundesregierung, die DIHK-Initiativen für den Mittelstand, das deutsch-französische Konsortium Gaia-X und das Vorhandensein nationaler KI-Champions wie Aleph Alpha, die das Vokabular der europäischen souveränen KI maßgeblich geprägt haben.

In diesem Kontext ist die Wahl eines KI-Anbieters keine rein technische Entscheidung mehr. Es ist eine Entscheidung, die die regulatorische Compliance des Kundenunternehmens, seine Kohärenz gegenüber seinen eigenen europäischen Kunden und — zunehmend — seinen institutionellen Ruf berührt. Die technischen Spezifikationen zählen weiterhin. Aber sie unterscheiden nicht mehr die guten Anbieter von den problematischen — denn auf einem Datenblatt behaupten inzwischen alle dasselbe.

Die fünf kommerziellen Säulen von glacom® KI

Bei glacom® KI haben wir unser Angebot um fünf Säulen aufgebaut, die unsere Marktpositionierung definieren:

  • Fixe Kosten. Vorhersehbares Geschäftsmodell als Alternative zur Pay-per-Use-Logik der meisten generalistischen Anbieter.
  • Souveräne KI. Datensouveränität, Lösungen, die Kundeninformationen nicht an öffentliche Modelle oder unkontrollierte Rechtsräume exfiltrieren.
  • Nachhaltigkeit (Green). Konkrete Aufmerksamkeit für die energetischen und ökologischen Auswirkungen der entwickelten Systeme, gestützt auf zertifizierte und überprüfbare Infrastruktur.
  • Algorithmische Transparenz. Erklärbarkeit der Entscheidungsprozesse und Auditierbarkeit der Systeme — der technische Kern dessen, was zunehmend als Explainable AI bezeichnet wird.
  • Inklusive Sprache und inklusives Verhalten. Konversationelle Systeme, die respektvoll, gerecht und für unterschiedliche Zielgruppen zugänglich sind.

Es sind die Säulen, die jeder seriöse europäische KI-Anbieter abdecken sollte, die in der Marktpraxis aber noch nicht zur Norm geworden sind. Besonders die fünfte, bei der es sich lohnt innezuhalten — denn sie ist strukturell anders als die übrigen vier.

Die fünfte Säule: Warum sie strukturell anders ist

Im Unterschied zu den anderen vier Säulen lassen sich inklusive Sprache und inklusives Verhalten nicht durch eine technische Architekturentscheidung oder eine Wahl des Tech-Stacks lösen. Man kann ein effizienteres GPU-Cluster kaufen. Man kann Rechenzentren mit grüner Zertifizierung beauftragen. Man kann branchenübliche Explainability-Frameworks übernehmen. Aber man kann keine respektvolle interne Kultur nachträglich kaufen.

Ein konversationelles System erbt unweigerlich die sprachlichen Muster, die Asymmetrien und die kulturellen Praktiken der Menschen und Teams, die es entwerfen. Wenn in den Entwicklungsteams alltäglicher Sexismus toleriert wird, Barrierefreiheit als „Nebenthema" abgetan wird oder Menschen aufgrund ihrer Herkunft, ihres Alters, ihres Aussehens oder ihrer Sprechweise schlecht behandelt werden — dann finden diese Muster ihren Weg, subtil aber technisch, bis in den Code, die Datasets, die Prompts und schließlich in das Verhalten des Assistenten.

Das ist keine Hypothese. Es ist eine technische Folge, die in der Literatur zu algorithmischen Verzerrungen der letzten Jahre gut dokumentiert ist — und genau das, worauf sich die deutsche und europäische Debatte zu Responsible AI und algorithmischer Voreingenommenheit seit 2024 konzentriert hat.

Die interne Kultur eines Unternehmens ist Teil des Produkts. Vor allem dann, wenn das Produkt ein konversationelles System ist.

Das Produkt beginnt vor dem Produkt

Wenn ein Unternehmen einen Anbieter für souveräne KI bewertet, schaut es — zu Recht — auf die üblichen Metriken: Antwortgenauigkeit, Latenz, Fähigkeit zur Verarbeitung komplexer Intents, Garantien zur Datensouveränität, Service-Level. Das sind notwendige Metriken.

Es gibt jedoch eine weniger offensichtliche, aber stärker differenzierende Frage: Wie behandelt das Unternehmen, das dieses System gebaut hat, seine Mitarbeitenden?

Die Frage scheint außerhalb des Bewertungsrahmens zu liegen. Ist sie nicht. Ein konversationelles System, das jeden Tag mit Hunderten oder Tausenden von Endnutzenden spricht — Kund:innen, Bürger:innen, Patient:innen, Mitarbeitenden — ist ein Produkt, dessen relationale Qualität direkt davon abhängt, wie innerhalb der Organisation, die es gebaut hat, miteinander gesprochen wird.

Das ist besonders relevant in den Sektoren, in denen souveräne KI in Deutschland am schnellsten Fuß fasst: öffentlicher Sektor und Verwaltung (wo Bürger:innen würdige, barrierefreie Interaktionen erwarten und wo öffentliche Vergabeverfahren zunehmend explizit auf diese Anforderungen hinweisen), Finanzdienstleistungen und Banken (wo die Customer Experience ein Wettbewerbsfaktor ist und die BaFin-Aufsicht steigt), Gesundheitswesen (wo Patient:innen sich gehört fühlen müssen und Würde im Umgang ein klinisches Thema ist, kein Marketing-Thema), Handel und E-Commerce (wo das konversationelle Erlebnis konvertiert), und der Mittelstand (wo verlässliche, vorhersehbare KI-Lösungen einen entscheidenden Vorteil gegenüber den volatilen generalistischen Modellen darstellen). In all diesen Sektoren ist ein technisch perfektes, aber relational unangemessenes System ein kommerzieller Misserfolg — und zunehmend ein Reputationsrisiko.

Verifizierbare Nachhaltigkeit: Die Rolle der Infrastruktur

Über nachhaltige KI zu sprechen ist zu einer rhetorischen Übung geworden, an der sich mit unterschiedlicher Begeisterung fast alle Anbieter der Branche beteiligen. Was eine Absichtserklärung von einer realen Verpflichtung unterscheidet, sind die Zertifizierungen der Infrastruktur, auf der das System läuft — denn der ökologische Fußabdruck eines KI-Systems wird weniger durch die Modelle als durch die Rechenzentren bestimmt, die sie hosten.

Bei glacom® KI laufen die Systeme auf der Infrastruktur von Seeweb, einem europäischen Cloud-Anbieter mit Standorten in Mailand, Frosinone, Lugano, Zürich und Sofia. Die Wahl ist nicht zufällig: Seeweb ist einer der wenigen Anbieter im europäischen Markt, der Datensouveränität und zertifizierte Nachhaltigkeit in einem einzigen Angebot vereint.

Die überprüfbaren Daten, die die grüne Säule von glacom® KI dank dieser Partnerschaft stützen, sind konkret:

  • 100 % Energie aus zertifizierten erneuerbaren Quellen, ohne nachträgliche Kompensationen.
  • Zertifizierung ISO 14001, eine der ersten im europäischen Cloud-Sektor.
  • PUE (Power Usage Effectiveness) von 1,2 in den neuesten Server Farms — ein Wert, der die Infrastruktur unter die effizientesten im europäischen Markt einreiht.
  • Unterzeichnerin des Climate Neutral Data Centre Pact, des europäischen Engagements zur Klimaneutralität von Rechenzentren bis 2030.
  • Supporter der Green Web Foundation, was die unabhängige öffentliche Verifikation des nachhaltigen Charakters des Hostings ermöglicht.
  • Spezifische Cloud-GPU-Dienste für KI und Machine Learning, konzipiert nach expliziten Energieeffizienz-Kriterien.

Das ist uns aus zwei sich ergänzenden Gründen wichtig. Der erste ist ökologisch: Die Generierung eines einzelnen Textes oder Bildes mittels KI kann nach jüngsten Schätzungen so viel Energie verbrauchen wie eine vollständige Smartphone-Aufladung. Wenn ein Unternehmen Tausende konversationelle Interaktionen pro Tag verarbeitet, wird die kumulierte Auswirkung signifikant — und die Wahl der Infrastruktur hört auf, ein technisches Detail zu sein, und wird zu einer ökologischen Entscheidung.

Der zweite Grund ist kommerziell. Jedes Kundenunternehmen, das Scope-3-Emissionen berichten muss — zunehmend üblich im Rahmen der EU-Richtlinie CSRD — muss mit überprüfbaren Zertifizierungen erklären können, dass seine Technologieanbieter auf nachhaltigen Infrastrukturen operieren. Der Betrieb auf Seeweb erlaubt glacom® KI, den Kunden diese Dokumentation zur Verfügung zu stellen, ohne auf generische Kompensationen oder grobe Schätzungen zurückgreifen zu müssen.

Europäische souveräne KI besteht nicht nur aus Software. Sie besteht auch aus der Infrastruktur, auf der diese Software läuft — und aus den Zertifizierungen, die diese Infrastruktur dem Endkunden bietet.

Zertifizierte Qualität: ISO 9001 und Managementsysteme

Die Qualität eines KI-Anbieters bemisst sich nicht nur an der Qualität der gelieferten Modelle. Sie bemisst sich auch an der Konsistenz der Prozesse, mit denen geliefert wird: wie ein Projekt geführt wird, wie der Kunde begleitet wird, wie Entscheidungen dokumentiert werden, wie Änderungen nachvollziehbar gemacht werden.

Das Qualitätsmanagementsystem von glacom® ist nach ISO 9001:2015 zertifiziert für die Beratungs- und Weiterbildungsleistungen, die das Unternehmen seinen Kunden erbringt — der Bereich der Arbeit, der über den gesamten Lebenszyklus eines Projekts in direktem Kontakt mit dem Kunden steht, von der initialen Analyse bis zur Übergabe des Systems. Die Zertifizierung wird von einer akkreditierten Stelle ausgestellt und jährlich mit unabhängigem Audit erneuert.

Es ist die operative Garantie, dass das „Wie wir arbeiten" nicht von der jeweils das Projekt führenden Person abhängt, sondern von einem dokumentierten und auditierbaren Prozess.

Was wir tun, und warum wir darüber sprechen

Bei glacom® haben wir kürzlich ein strukturiertes Programm zur Organisationsentwicklung gestartet, das explizit an der Kohärenz zwischen interner Kultur und Produktqualität arbeitet. Wir erzählen davon nicht aus Gründen der Unternehmenskommunikation, sondern weil wir glauben, dass jede:r, der einen Anbieter für souveräne KI auswählt, das Recht hat zu wissen, was hinter dem Produkt steht.

Für dieses Programm haben wir die Dienstleistungen von Reeducant les Violències, SCCL beauftragt, einer in Barcelona ansässigen Genossenschaft, die auf Organisationsentwicklung, inklusive Führung und die Gestaltung konversationeller Systeme mit inklusiver Sprache und inklusivem Verhalten spezialisiert ist. Das Programm umfasst alle drei operativen Abteilungen von glacom® — KI, Software und Förderfinanzierung — und erreicht die gesamte internationale Konzernstruktur des Unternehmens, das in sieben Ländern präsent ist.

Es arbeitet auf vier operativen Ebenen:

  • Operative Koordination und Klarheit zwischen den Abteilungen, denn ein desorientiertes Team produziert verworrene Systeme. Die Nachvollziehbarkeit des Produkts beginnt mit der Nachvollziehbarkeit interner Entscheidungen.
  • Dokumentierte und nachvollziehbare interne Kommunikation, um Entscheidungen zu konsolidieren statt sie zu zerstreuen. Datengovernance erbt von Sprachgovernance.
  • Ein strukturiertes Protokoll für den Umgang mit Spannungssituationen, sowohl intern als auch mit Kunden — denn respektvolles Arbeiten ist die Voraussetzung, nicht der Bonus, eines guten Service.
  • Eine explizite Arbeit an den Dimensionen der Inklusion, nicht als Liste guter Absichten, sondern als deklarierte und überprüfbare operative Praktiken.

All das tun wir nicht, weil es auf einer Unternehmensseite gut aussieht. Wir tun es, weil es die technische Voraussetzung dafür ist, dass die fünfte Säule — inklusive Sprache und inklusives Verhalten unserer Systeme — ein realer Vermögenswert ist und keine Marketingbehauptung.

Die Dimensionen der Inklusion, an denen wir arbeiten

Das Programm identifiziert zehn operative Dimensionen der Inklusion, die sowohl das interne Klima des Unternehmens als auch die Sprachqualität der von uns gestalteten Systeme betreffen:

  • Transphobie. Ablehnung oder Diskriminierung von trans Personen.
  • Aporophobie. Ablehnung oder Verachtung von Menschen in Armut.
  • Klassismus. Diskriminierung aufgrund sozialer Klasse.
  • Ableismus. Diskriminierung von Menschen mit Behinderungen — einschließlich unsichtbarer Behinderungen und Neurodivergenzen.
  • Homophobie. Ablehnung von homosexuellen Personen.
  • Rassismus. Diskriminierung aufgrund ethnischer oder kultureller Herkunft.
  • Xenophobie. Ablehnung von Menschen mit Migrationshintergrund.
  • Lookismus. Diskriminierung aufgrund äußerer Erscheinung.
  • Fettfeindlichkeit (Fatphobia). Ablehnung oder Stigmatisierung von Körpern, die nicht den dominierenden Standards entsprechen.
  • Sexismus. Diskriminierung oder Überlegenheitshaltung aufgrund des Geschlechts.

Für ein Unternehmen mit Personal in sieben Ländern und Kunden, die in so unterschiedlichen Sektoren wie Finanzdienstleistungen, Gesundheitswesen, öffentlicher Verwaltung und E-Commerce tätig sind, handelt es sich nicht um eine philosophische Liste. Es handelt sich um eine technische Bedingung: Jede dieser Dimensionen, wenn sie intern nicht adressiert wird, reproduziert sich in der Sprache des konversationellen Systems, das auf den Markt kommt.

Ein konversationelles System ist nur dann inklusiv, wenn diejenigen, die es bauen, in einer inklusiven Umgebung arbeiten. Es gibt keine technische Abkürzung.

Eine konkrete Folge: das Recht auf Respekt in alle Richtungen

Eine der operativen Praktiken, die das Programm explizit formalisiert, ist das Recht jeder Person im Unternehmen, eine Interaktion zu unterbrechen, die offensive Töne oder respektlose Behandlung annimmt — ihr selbst oder Kolleg:innen gegenüber — woher diese Behandlung auch immer kommt.

Es sieht aus wie ein HR-Detail. Ist es nicht.

Ein Team, das in einer Umgebung operiert, in der Respekt in alle Richtungen gewährleistet ist, produziert sorgfältigere Systeme: rigorosere Dokumentation, aufmerksamere Code-Reviews, Designentscheidungen, die in Konstruktion und nicht in Verteidigung getroffen werden. Der Schutz des internen Klimas ist daher ein direkter Bestandteil der Qualität des Produkts, das ausgeliefert wird.

Umgekehrt ist diese Praxis kein Verlust für die Vertriebsfunktion: Mit der Zeit verbleiben im Portfolio derjenigen, die verkaufen, zunehmend motivierte Kunden, die mit der erhaltenen Arbeit zufrieden sind und die Menschen respektieren, mit denen sie interagieren. Und kollektiv lernt glacom®, die Muster problematischer Kunden vor der Vertragsunterzeichnung zu erkennen, und baut so ein Pre-Sales-Qualifizierungsinstrument auf, von dem die gesamte Vertriebsfunktion profitiert.

Mit Respekt zu arbeiten ist kein Zugeständnis. Es ist eine Qualitätsentscheidung, die wir aktiv schützen, weil wir wissen, wie sie sich in Code übersetzt.

Compliance: DSGVO, BSI, BfDI, AI Act, geistiges Eigentum

Inklusion ist die ethische und kulturelle Dimension unserer Positionierung. Es gibt jedoch eine ergänzende rechtliche Dimension, die für jede:n, der souveräne KI in Deutschland und Europa entwickelt, zunehmend entscheidend ist.

Der deutsche Rahmen kombiniert DSGVO, die Aufsicht der BfDI und der Landesdatenschutzbehörden, die Sicherheitsanforderungen des BSI, den europäischen AI Act mit seinen Verpflichtungen zu Transparenz, menschlicher Aufsicht und Erklärbarkeit, sowie die sektoralen Anforderungen der BaFin in den Finanzdienstleistungen und die spezifischen Vorgaben für Medizinprodukte im Gesundheitswesen. Das European Accessibility Act, seit Juni 2025 in Kraft, fügt eine zusätzliche Schicht für barrierefreie digitale Produkte hinzu. Die korrekte Verwaltung von Open-Source-Lizenzen und die Übertragungen geistigen Eigentums des Systems vervollständigen das Bild.

An dieser Front haben wir die Dienste von BE LAW LAB beauftragt, einer Anwaltskanzlei mit Büros in Barcelona und Madrid, spezialisiert auf digitale Regulierung, Datenschutz und künstliche Intelligenz. Wir strukturieren mit ihnen ein vollständiges Compliance-Programm, das das Audit unseres KI-Systems gemäß AI Act, die Umsetzung der aus dem System abgeleiteten Datenschutzmaßnahmen, die Überprüfung internationaler Datenübertragungen, die Identifizierung von Folgenabschätzungen für Grundrechte (FRIA) und Datenschutz-Folgenabschätzungen (DSFA), das Audit der verwendeten Open-Source-Lizenzen und die rechtlichen Schutzmaßnahmen des Systems selbst abdeckt.

Regulatorische Compliance folgt für uns derselben Logik wie das ethische Programm: Zuerst macht man die Dinge, wie sie gemacht werden müssen, dann erzählt man dem Markt davon. Sie ist die natürliche Ergänzung der kulturellen Kohärenz — nicht ihr Ersatz.

Warum ein europäischer KI-Anbieter in Deutschland zählt

Eine der strukturierenden Achsen der deutschen KI-Landschaft ist der wachsende Wert, für deutsche Unternehmen und Verwaltungen, mit europäischen KI-Anbietern zu arbeiten. Die Gründe sind dreifach.

Der erste ist regulatorisch: Mit einem Anbieter zu arbeiten, der bereits um DSGVO, AI Act und europäische Datensouveränität herum strukturiert ist, eliminiert eine Schicht von Compliance-Friktion, die ein außereuropäisch ansässiger Hyperscaler nicht in derselben Tiefe bieten kann.

Der zweite ist politisch-strategisch: Die digitale Souveränität ist eine strategische Achse der Bundesregierung, gestützt durch Initiativen wie Gaia-X, durch die Empfehlungen des DIHK an den Mittelstand und durch ein Ökosystem nationaler Champions — Aleph Alpha, IONOS, Open Telekom Cloud, SAP — die das Rückgrat der deutschen souveränen KI bilden. Ein europäischer KI-Anbieter fügt sich in dieses Ökosystem als komplementärer Partner ein, nicht als außereuropäischer Konkurrent.

Der dritte ist kommerziell: Für deutsche Unternehmen mit Kunden oder Tochtergesellschaften außerhalb Deutschlands, aber innerhalb Europas, vereinfacht der Betrieb mit einem paneuropäischen Anbieter die Kohärenz der multi-jurisdiktionalen Compliance.

Glacom® ist ein europäisches Unternehmen mit Präsenz in sieben Ländern — Italien, Spanien, Frankreich, Vereinigtes Königreich, Estland, Rumänien und Deutschland. Wir operieren in Deutschland mit einer eingetragenen Gesellschaft und der Fähigkeit, GPU-Infrastruktur lokal dort bereitzustellen, wo das Projekt es erfordert, unter Wahrung der europäischen Datenresidenz und der europäischen Compliance-Position für Kunden mit multi-jurisdiktionaler Exposition.

KI-Souveränität für den deutschen Mittelstand

Der deutsche Mittelstand ist eine der distinktivsten Strukturen des europäischen Wirtschaftsraums — und einer der anspruchsvollsten Käufer von Enterprise-KI. Mittelständische Unternehmen kombinieren in der Regel drei Eigenschaften, die das Profil des KI-Anbieters direkt beeinflussen: eine ausgeprägte Vorsicht bei der Adoption neuer Technologien, eine Priorität für Datensouveränität und Schutz industrieller Geschäftsgeheimnisse, und eine starke Präferenz für vorhersehbare Kostenmodelle gegenüber volatilen Pay-per-Use-Strukturen.

Die fünf Säulen von glacom® KI sind nicht zufällig auf dieses Profil zugeschnitten. Fixe Kosten beantworten die Vorhersehbarkeitsanforderung. Souveräne KI beantwortet den Schutz der Geschäftsgeheimnisse. Nachhaltigkeit beantwortet die zunehmenden Berichtspflichten zu Scope-3-Emissionen. Algorithmische Transparenz beantwortet die Compliance-Anforderungen, die in regulierten Sektoren wie Maschinenbau, Automotive-Zulieferer und Medizintechnik entstehen. Und die fünfte Säule — inklusive Sprache und inklusives Verhalten — beantwortet eine wachsende Sensibilität deutscher Unternehmen gegenüber der Kundenkommunikation, insbesondere in B2C-Verlängerungen mittelständischer Marken.

Für den CIO oder die CFO eines Mittelstandsunternehmens, der einen KI-Partner evaluiert, ist die Frage selten „welches Modell hat den höchsten Benchmark-Score". Die Frage ist viel öfter „welcher Partner verlangsamt unser Wachstum nicht durch Compliance-Friktion, schützt unsere Daten ohne uns an einen Hyperscaler zu binden, und bleibt mit uns in fünf Jahren noch im Gespräch". Dies ist die Frage, auf die das Modell von glacom® KI ausgelegt ist zu antworten.

Wie Sie 2026 einen Anbieter für souveräne KI auswählen

Für wer diesen Artikel aus der Position eines Kunden oder Unternehmenseinkäufers liest, ist der Punkt einfach. Bei der Bewertung eines Anbieters für souveräne KI im Jahr 2026 lohnt es sich, auch diese Fragen zu stellen — zusätzlich zu den üblichen über Preis, Latenz und SLAs:

  • Wo liegen die Daten in jeder Phase des Lebenszyklus des Systems, und wer hat Zugriff?
  • Auf welcher Cloud-Infrastruktur laufen die Modelle, und welche Umweltzertifizierungen besitzt diese Infrastruktur?
  • Gibt es einen dokumentierten Compliance-Plan für den geltenden regulatorischen Rahmen — DSGVO und AI Act für europäische Systeme, mit BSI- und BfDI-Konformität wo anwendbar?
  • Welche internen Praktiken hat das Unternehmen, das das System baut, in Bezug auf Responsible AI, Bias-Management und Sprache des Produkts?
  • Wie verwaltet der Anbieter Open-Source-Lizenzen und das geistige Eigentum des Systems?
  • Gibt es eine deklarierte und nachvollziehbare Kohärenz zwischen nachhaltiger Infrastruktur, interner Kultur, regulatorischer Compliance und relationaler Qualität des konversationellen Produkts?

Die ersten beiden Fragen sind Standard in jeder ernsthaften Ausschreibung. Die anderen, im Moment, sind es nicht. Aber es sind die Fragen, die ein konversationelles System, das im Zeitverlauf Bestand hat, von einem unterscheiden, das in den nächsten vierundzwanzig Monaten Reputationsvorfälle erzeugt.

Insbesondere die vierte Frage ist die, die wenige Anbieter beantworten wollen — denn sie zwingt dazu, die interne Praxis zu öffnen, nicht nur das technische Datenblatt. Es ist genau die Frage, deren Stellung ein reifer Anbieter sich wünschen sollte.

Fazit: Der nächste Zyklus der konversationellen KI

Der Markt für souveräne KI in Deutschland und in Europa verlässt seine rein technische Phase — in der die Differenzierung über On-Premise-Deployment, Datensouveränität und grundlegende DSGVO-Compliance gespielt wurde — und tritt in eine neue Phase ein, in der die Differenzierung auf vier simultanen Achsen gespielt wird: die nachhaltige, zertifizierte Infrastruktur, auf der das System läuft, die relationale Qualität der Systeme selbst, die Stärke der internen Governance beim Anbieter, und die nachweisbare Compliance mit dem entstehenden europäischen regulatorischen Rahmen, AI Act an erster Stelle.

Bei glacom® KI haben wir uns entschieden, unser Angebot auf den vollständigen fünf Säulen aufzubauen — einschließlich der fünften, die die meisten noch nicht benennen — und uns auf Partner zu stützen, die überprüfbare Zertifizierungen einbringen: Seeweb für nachhaltige, souveräne Cloud-Infrastruktur, Reeducant les Violències für Organisationsentwicklung und interne Kultur, BE LAW LAB für regulatorische Compliance. Wir sind überzeugt, dass der nächste Zyklus der konversationellen KI nicht über technische Benchmarks gewonnen wird, bei denen die großen generalistischen Akteure unerreichbar sind. Er wird über die Kohärenz zwischen dem, was versprochen wird, und dem, was gebaut wird, gewonnen — zwischen der gewählten Infrastruktur und der gepflegten Kultur, zwischen der kommerziellen Geschichte und der täglichen Praxis.

Darüber, glauben wir, ist alles noch zu bauen. Und wir bevorzugen es, jetzt anzufangen, indem wir erklären, wohin wir kommen wollen — und akzeptieren, daran gemessen zu werden.

Wir haben einige Artikel ausgewählt, die Sie interessieren könnten.

09/01/2026

  • #
20/11/2025

  • #
14/11/2025

  • #
20/11/2024

  • #
08/04/2024

  • #
02/04/2024

  • #
🚀We are hiring!

We are hiring!

Glacom