Künstliche Intelligenz verspricht, den Entwicklungsalltag von Software-Entwicklern radikal zu erleichtern: von automatisierten Code-Vorschlägen bis hin zu komplexen Lösungsideen in Sekundenschnelle. Doch je verlockender die Möglichkeiten, desto größer die Risiken: Wie schützt man sensible Unternehmens- oder Kundendaten, wenn man KI-Tools einsetzt? Und wie verhindert man, dass die Nutzung dieser Tools schnell teuer wird?
Sprachmodelle und ihre Verfügbarkeit bei deutschen Anbietern
Im Gespräch mit Freunden und Familien wird schnell klar: AI ist quasi gleichzusetzen mit OpenAI’s ChatGPT. Auch wer sich etwas eingehender mit dem Thema beschäftigt, dem wird schnell klar: KI-Modelle kommen vor allem aus den USA und China. Doch stimmt das? Welche europäischen Alternativen gibt es und wie lassen sich die ausländischen Modelle – zumindest einigermaßen – datenschutz-konform nutzen?
Wenn man über Large-Language-Modelle – kurz LLMs – spricht, so muss man unterscheiden zwischen proprietären Angeboten wie GPT-5, Anthropic’s Claude oder aber auch Google’s Gemini-Serie und open-source Modellen wie OpenAI’s GPT-OSS, Meta’s Llama oder deepseek-AI’s DeepSeek. Doch wie offen sind diese Modelle tatsächlich? Wenn im Rahmen von LLMs über open-source gesprochen wird, so ist oftmals open-weight gemeint. Nur in den seltensten Fällen sind die Modelle von Anfang (Trainingsdaten oder bspw. Quellcode) bis zum Ende (Gewichte) wirklich offen. Meta fügte – als Reaktion auf europäische Regulierungen – diesem Bild noch eine weitere Dimension hinzu: Geografische Beschränkung. Llama 4, das aktuelle Sprachmodell des amerikanischen Konzerns darf in Europa schlichtweg nicht sinnvoll eingesetzt werden.
Welche Alternativen bleiben also? Auf der kommerziellen Seite gibt es in Europa eigentlich nur ein Startup, dass im Bereich der Sprachmodelle wirklich mit den großen Anbietern mithalten kann: Die Rede ist von Mistral AI und der LeChat-Serie. Ein Blick auf das LLM-Benchmark im LMArena-Tool zeigt, dass die Codestral-Reihe, durchaus mit der internationalen Konkurrenz mithalten kann. Wie aber kann man deren Innovationskraft nutzen? Eine Möglichkeit ist es, die Modelle selbst im eigenen „Rechenzentrum“ zu hosten. Anders als das eigentliche Training, dass eine gigantische Menge an Resourcen verschlingt, ist das Interferencing, also vereinfacht gesagt die Beantwortung einer Nutzeranfrage, deutlich weniger rechenintensiv. Ein Blick auf die untenstehende Tabelle (*) zeigt aber, dass das ganze doch nicht so trivial ist und immer noch eine gewisse Investition in die Hardware benötigt, oder man aber Abstriche bei der Qualität (sprich eine kleinere Modellgröße) hinnehmen muss.
| Modellgröße | VRAM (Inference) | System‑RAM |
|---|---|---|
| 1 B | – ca. 2 GB VRAM (≈ 2 GB pro 1 B Parameter) | – 16 GB DDR5 |
| 7 B | – ≈ 14 GB VRAM (2 GB × 7) | – 32 GB DDR5 |
| 70 B | – ≈ 48 GB VRAM (einzelne 48 GB‑GPU) oder 2 × 24 GB mit Off‑loading | – 128 GB DDR5 (oder 64 GB bei starker Quantisierung) |
| 120 B | – 48 GB VRAM – Alternativ 2 × 24 GB GPUs mit Off‑loading | – 192 GB DDR5 (empfohlen) – 256 GB für komfortable Puffer |
*Die Tabelle wurde zur Verfügung gestellt von GPT-OSS -20 und dient auschließich der Veranschaulichung der, mit der Anzahl der Gewichte, steigenden Hardware-Anforderungen.
Hier kommen Hosting-Anbieter STACKIT, die Open Telekom Cloud oder IONOS ins Spiel. Ähnlich wie bei AWS, Azure oder GCP haben die Kunden hier die Möglichkeit auf gehostete Varianten der Sprachmodelle zuzugreifen. IONOS ist derzeit noch besonders attraktiv: Bis zum 30. September 2025 lassen sich die verschiedenen Modelle kostenfrei nutzen.
Die Einbindung in die eigene Entwicklungsumgebung
Eine der am Weitesten verbreitetsten Einbindung eines KI-Helfers in die eigene Entwicklungsumgebung dürfte wohl GitHub’s – nej Microsoft’s – Copilot in VSCode sein. Aber auch Google’s Gemini Code Assist lässt sich einfach integrieren. Wer darüber nachdenkt, OpenAI’s API in VSCode zu nutzen, muss schon etwas gründlicher suchen. Zwar gibt es auch hierfür Erweiterungen, wirklich einfach ist das nicht. Genau hier kommt Eclipse Foundation ins Spiel. Während ich in meinem Studium noch das klassische Eclipse für Java-Entwicklung nutzen durfte, gibt es mittlerweile eine Reihe von Produkten, die Teile von VSCode integrieren. Dazu gehört Eclipse Theia, eine Plattform zur Entwicklung von web-basierten Entwicklungsumgebungen. Im März 2025 wurde Theia AI veröffentlicht. Dieses Framework ermöglicht eine tiefgreifende Integration von Künstlicher Intelligenz in Entwicklungsumgebungen. Das spannende für diese Blog-Reihe: Das Tool bietet eine breite Unterstützung von AI-Anbietern.
Die eigene, europäische KI-Entwicklungsumgebung
Während Theia bereits bei einer Reihe von Partnern zum Einsatz kommt, ist die Frage als kosten-bewusster Selbstständiger natürlich besonders spannend, wie man das aktuelle IONOS-Angebot und Eclipse’s Theia AI nutzen kann. Genau darum soll es im nächsten Teil der Reihe gehen.
Bis bald!