Modern Data Stack "Made in Europe" - Persönliches Update


Der Fahrplan für datengetriebene Transformation
Das ePaper zeigt dir Strategien, Erfolgsbeispiele und eine Checkliste für den direkten Start in die digitale Zukunft.

- Das ist eine H2
- Das ist eine H3
Als ich vor rund einem halben Jahr ausführlicher über einen Modern Data Stack „Made in Europe“ geschrieben habe, war das Thema vor allem ein strategisches Gedankenspiel. Die Abhängigkeit von US-Anbietern war offensichtlich, europäische Alternativen existierten – allerdings meist mit spürbaren funktionalen oder ökosystemischen Einschränkungen. Entsprechend vorsichtig fiel mein damaliges Fazit aus: sinnvoll ja, realistisch nur in Teilen, pragmatisch am ehesten hybrid.
Seitdem hat sich das Umfeld spürbar weiterentwickelt. Nicht sprunghaft, nicht revolutionär – aber doch so, dass sich ein zweiter Blick lohnt.
Der konkrete Anlass für diesen Update-Beitrag ist eine technische Evaluation von BARC, mit der ich mich vor einigen Wochen näher beschäftigt habe. Eingeladen wurde ich eher zufällig zu einem Webinar rund um eine souveräne Lakehouse-Architektur auf Basis von STACKIT und Dremio. Nicht, weil ich aktiv nach einer europäischen Alternative gesucht hätte, sondern weil das Thema Datensouveränität aktuell bei vielen Unternehmen präsent ist. Genau dieser Zufall war für mich der Auslöser, meine Einschätzung von vor sechs Monaten noch einmal zu überprüfen.
Wichtig vorweg: Es geht hier nicht um ein Loblied auf einen einzelnen Anbieter. STACKIT dient in diesem Beitrag als konkretes Beispiel, weil zu genau diesem Setup eine fundierte, öffentlich zugängliche Studie vorliegt. Die eigentliche Frage dahinter ist größer: Wie belastbar sind europäische Bausteine inzwischen, wenn man sie entlang moderner Architekturprinzipien einordnet?
Was sich seit dem letzten Beitrag verändert hat
In meinem ersten Artikel habe ich beschrieben, dass europäische Cloud- und Datenangebote häufig an zwei Punkten scheitern: an technischer Tiefe und an der Einbettung in ein tragfähiges Ökosystem. Diese Einschätzung gilt in Teilen weiterhin. Gleichzeitig lässt sich aber beobachten, dass einzelne Anbieter gezielt an genau diesen Schwachstellen arbeiten.
Die von BARC analysierte Architektur – ein Lakehouse-Setup mit über einer Milliarde Datensätzen – ist deshalb interessant, weil sie keine theoretische Skizze darstellt, sondern unter realistischen Bedingungen getestet wurde. Die Ergebnisse zeigen, dass Performance, Skalierung und Offenheit heute auch außerhalb der Hyperscaler-Welt erreichbar sind. Offene Standards, entkoppelter Storage und Compute, kalkulierbare Kostenmodelle und ein klarer regulatorischer Rahmen sind keine abstrakten Versprechen mehr, sondern technisch messbar.
Wer sich tiefer dafür interessiert, sollte sich die Studie im Original ansehen – sie liefert deutlich mehr Substanz als viele Marketingfolien und eignet sich gut, um die Diskussion zu versachlichen.
Ein genauerer Blick auf das BARC-Assessment
Um die Ergebnisse sinnvoll einordnen zu können, lohnt sich ein etwas genauerer Blick auf das getestete Setup. Denn relevant ist weniger der Benchmark an sich als die zugrunde liegende Architekturentscheidung.
BARC hat keine proprietäre Komplettplattform bewertet, sondern eine bewusst modulare Lakehouse-Architektur. Kern des Setups ist die Trennung von Storage und Compute, umgesetzt über Apache Iceberg als offenes Tabellenformat, einen S3-kompatiblen Object Store auf STACKIT-Seite sowie Dremio als analytische und semantische Zugriffsschicht. Genau diese Prinzipien bilden auch den Kern dessen, was wir üblicherweise unter einem Modern Data Stack verstehen.
Die Daten lagen als Iceberg-Tabellen im Object Storage, der vollständig unter europäischer Jurisdiktion betrieben wird. Dremio fungierte darüber als Query-Engine und semantische Schicht für SQL-basierte Analysen, sowohl für klassische BI-Abfragen als auch für explorative Workloads. Die Compute-Ressourcen wurden dynamisch skaliert, ohne dass der Storage selbst gebunden oder repliziert werden musste. Diese Entkopplung ist nicht nur für Performance relevant, sondern vor allem für Kostenkontrolle und Portabilität.
Getestet wurde mit rund 1,1 Milliarden Datensätzen, verteilt über mehrere Tabellen und unterschiedliche Abfrageprofile. Im Fokus standen realitätsnahe SQL-Abfragen – Aggregationen, Joins, Filter auf großen Datenmengen –, wie sie auch im analytischen Alltag vieler mittelständischer Unternehmen vorkommen. Die Ergebnisse zeigten eine stabile Performance mit sehr kurzen Antwortzeiten für den Großteil der Abfragen sowie eine nahezu lineare Skalierung bei steigender Last.
Architektonisch bemerkenswert ist, dass dieses Setup ohne proprietäre Optimierungsmechanismen auskommt. Keine spezialisierten Storage-Formate, keine eng verzahnten Plattformdienste, keine impliziten Lock-ins. Die Leistungsfähigkeit entsteht nicht durch Abschottung, sondern durch saubere, offene Architektur. Das ist ein relevanter Unterschied zu vielen etablierten Plattformen, die in den letzten Jahren funktional stark gewachsen, architektonisch aber zunehmend geschlossen geworden sind.
BARC hebt zudem die Kostenseite hervor. Durch den Verzicht auf klassische Egress-Gebühren und durch vergleichsweise vorhersehbare Preisstrukturen auf Infrastruktur- und Compute-Ebene lässt sich ein solches Setup deutlich besser planen als viele nutzungsbasierte Plattformmodelle. Gerade für mittelständische Organisationen ist das kein Nebenaspekt, sondern oft entscheidend für Akzeptanz und langfristigen Betrieb.
Wichtig ist auch: Das Assessment erhebt keinen Anspruch darauf, eine vollständige Datenplattform inklusive aller Advanced-Analytics- oder MLOps-Funktionen abzubilden. Es bewertet bewusst einen klar abgegrenzten architektonischen Kern – Datenhaltung, Abfrage, Skalierung, Offenheit. Und genau darin liegt seine Aussagekraft.
Einordnung statt Euphorie
Die entscheidende Frage ist aus meiner Sicht nicht, ob ein einzelnes europäisches Setup „mit AWS oder Snowflake mithalten kann“. Diese Vergleichslogik greift zu kurz. Interessanter ist, welche architektonischen Prinzipien heute auch mit europäischen Angeboten sauber umgesetzt werden können – und für welche Anwendungsfälle das relevant ist.
Ein moderner Data Stack lebt von Modularität, offenen Schnittstellen, klarer Trennung von Verantwortlichkeiten und der Möglichkeit, Komponenten gezielt auszutauschen oder zu ergänzen. In dieser Logik werden europäische Angebote dann spannend, wenn sie als belastbare Bausteine in einem solchen Gesamtbild funktionieren – nicht, wenn sie versuchen, komplette Plattformen zu imitieren.
Genau hier liegt der Wert der aktuellen Beobachtungen: Die Infrastruktur ist nicht mehr automatisch der limitierende Faktor. Die eigentlichen Herausforderungen liegen weiterhin in Architekturentscheidungen, Datenmodellen, Ownership, Betriebsprozessen und Fähigkeiten in den Teams. Das war vor sechs Monaten so und gilt unverändert.
Warum der Blick nach Europa trotzdem sinnvoll ist
Was sich allerdings verändert hat, ist die strategische Relevanz. Gespräche mit Unternehmen drehen sich zunehmend um Optionalität. Nicht im Sinne eines ideologischen „Europa first“, sondern als nüchterne Risikobetrachtung. Wie abhängig wollen wir sein? Wo brauchen wir Alternativen? Und wie stellen wir sicher, dass wir diese Alternativen im Zweifel auch nutzen können?
Vor diesem Hintergrund sind europäische Technologien nicht als Ersatz zu verstehen, sondern als Ergänzung. Als Möglichkeit, Architekturen robuster, diverser und langfristig flexibler zu gestalten.
Dass sich hier etwas bewegt, zeigt sich nicht nur im Infrastrukturbereich. Mit Mistral im AI-Umfeld oder n8n im Bereich Workflow-Automatisierung entstehen auch auf anderen Ebenen europäische Produkte, die international wahrgenommen werden. Sie lösen nicht jedes Problem und sind nicht in jedem Kontext die beste Wahl – aber sie zeigen, dass Substanz vorhanden ist.
Was aus meiner Sicht noch fehlt, sind mehr positive, differenzierte Erfahrungsberichte und der Mut, Dinge bewusst auszuprobieren. Ohne Experimente entsteht kein Ökosystem. Und ohne Nachfrage keine Weiterentwicklung.
Fazit: Kein Umbruch, aber ein relevanter Fortschritt
Ein Modern Data Stack „Made in Europe“ ist auch heute kein Selbstläufer und keine pauschale Empfehlung. Aber er ist mehr als ein theoretisches Zielbild. Einzelne Bausteine sind technisch belastbar, strategisch sinnvoll und in realen Szenarien einsetzbar.
Die Hyperscaler bleiben zentrale Akteure – daran besteht kein Zweifel. Gleichzeitig wird es für Unternehmen immer wichtiger, ihre Architektur nicht ausschließlich entlang eines Anbieters zu denken. Offenheit, Modularität und bewusste Wahlmöglichkeiten werden zum eigentlichen Wettbewerbsvorteil.
Dieser Beitrag ist deshalb kein abschließendes Fazit, sondern eine Momentaufnahme. Und vermutlich nicht die letzte.
Hinweis zur Quelle:
Die in diesem Beitrag referenzierte technische Evaluation stammt von BARC („Sovereign Data Management with STACKIT & Dremio“). Die Studie ist öffentlich verfügbar und kann hier eingesehen werden: https://barc.com/research/sovereign-data-management-europe/
Europäische Datenarchitektur: Ist das auch für Ihr Unternehmen eine Option?
Die strategische Frage lautet nicht „Hyperscaler oder Europa?", sondern:
Welche Architektur passt zu Ihren Anforderungen an Souveränität, Performance und Kosteneffizienz?
In unserem Architektur-Assessment evaluieren wir gemeinsam mit Ihnen:
- Welche Workloads sich für europäische Infrastruktur eignen
- Wo hybride Ansätze strategisch sinnvoll sind
- Wie Sie Lock-in-Risiken durch offene Standards minimieren
Profitieren Sie von unserer Erfahrung aus 20+ erfolgreichen Datenprojekten im deutschen Mittelstand.

Europäische Datenarchitektur: Passt das zu Ihren Anforderungen?
Wir evaluieren gemeinsam mit Ihnen, welche Workloads für europäische Infrastruktur geeignet sind, wo hybride Ansätze sinnvoll sind und wie Sie durch offene Standards Lock-in-Risiken minimieren.
Europäische Datenarchitektur: Passt das zu Ihren Anforderungen?
Wir evaluieren gemeinsam mit Ihnen, welche Workloads für europäische Infrastruktur geeignet sind, wo hybride Ansätze sinnvoll sind und wie Sie durch offene Standards Lock-in-Risiken minimieren.

Europäische Datenarchitektur: Passt das zu Ihren Anforderungen?
Wir evaluieren gemeinsam mit Ihnen, welche Workloads für europäische Infrastruktur geeignet sind, wo hybride Ansätze sinnvoll sind und wie Sie durch offene Standards Lock-in-Risiken minimieren.

Passende Case Studies
Zu diesem Thema gibt es passende Case Studies
Welche Leistungen passen zu diesem Thema?





