Inhaltsverzeichnis
Security-Segeln trifft AI Lab am Bodensee – oder: Warum die besten Innovationen in engagierten Communities entstehen
Im Mai 2025 waren wir beim Security-Segeln unterwegs – eine Woche auf dem Mittelmeer, die weit mehr war als Segelurlaub. Zwischen Manövern, Sonne und kroatischem Essen haben wir intensiv an einer Frage gearbeitet, die jeden Cybersecurity-Professional umtreibt: Wie verändert Künstliche Intelligenz unsere Sicherheitspraxis – und wie können wir KI nutzen, ohne unsere sensiblen Daten preiszugeben? Also starteten wir mit unserer KI-Forschung, mitten auf dem Meer.
Das Dilemma ist real: Tools wie Microsoft Copilot oder ChatGPT bieten beeindruckende Fähigkeiten, aber für Security-Profis sind sie nur bedingt nutzbar. Wer mit vertraulichen Kundendaten arbeitet, kann nicht einfach firmeninterne Informationen in öffentliche Modelle einspeisen. Die Frage lautet also: Wie schaffen wir private, unternehmensspezifische KI-Lösungen, die auf unserer eigenen Hardware laufen – frei von externen Anbietern und Datenrisiken?
Auf dem Schiff legten wir die Grundlagen: Wir luden Open-Source-Modelle herunter, definierten Use Cases und holten uns wertvollen Input von KI-Experten zu Möglichkeiten in der Architektur. Das Gefühl von Gemeinschaft und Aufbruch war spürbar – wir hatten das „Rabbit Hole“ geöffnet.
Vom Impuls zur Umsetzung: Das AI Lab am Bodensee
Einige Monate später ging es weiter – diesmal an den Bodensee. Stefan Pietzko, Freelancer im Bereich IT-Security und Teilnehmer des Security-Segelns, nahm den Faden auf und organisierte ein Follow-up: das AI Lab in Allensbach am Bodensee. So trafen sich sechs hochmotivierte Teilnehmer*innen für ein kompaktes Wochenend-Format.
Die Idee zum AI-Lab war bottom-up entstanden – nicht als Auftrag, sondern aus echtem, eigenem Antrieb. Genau das macht den Unterschied: Hier kommen Menschen zusammen, die selbst etwas bewegen wollen. Macher und Macherinnen mit dem richtigen Mindset, die gewillt sind, an Umsetzung und Austausch zu arbeiten.
Fünf Sessions, fünf Durchbrüche
Was wir in diesem intensiven Wochenende erarbeitet haben, zeigt: Community-getriebene Forschung liefert bessere Ergebnisse als isolierte Einzelprojekte. Hier ein Überblick über unsere Sessions:
- Die Fragestellung:
Wie können wir einem KI-Modell unternehmensspezifisches Wissen mitgeben, ohne es neu zu trainieren? Wir wollen mit unseren eigenen Daten chatten – aber unabhängig von Microsoft Copilot, ChatGPT oder anderen öffentlich zugänglichen KI-Modellen. - Unser Ziel:
Aufbau einer flexiblen RAG-Pipeline, die kontextbezogene Antworten liefert und nachvollziehbar bleibt. - Key Learning:
Gute Ergebnisse hängen weniger von der Modellgröße als von der Datenqualität und der Retrieval-Strategie ab. Chunking, Embedding-Auswahl und Vektordatenbank-Performance sind entscheidend. Das Beste: Dafür braucht man gar kein großes Modell. Kleine, vorbereitete Modelle reichen aus – und laufen auf normaler Consumer-Hardware. - Warum das wichtig ist:
Große Modelle wie ChatGPT enthalten Unmengen an Wissen, aber sie sind Allrounder. Im Unternehmenskontext gibt es häufig ganz spezifische Aufgaben, z.B.: Dokumente zusammenfassen, Reports analysieren, Prozesse automatisieren. Dafür reicht ein kleines, spezialisiertes Modell, das sehr viel weniger Energie verbraucht und keine leistungsfähige High-End-Hardware benötigt.
- Die Fragestellung:
Wie funktioniert Fine-Tuning eines Modells, welche Modelle eignen sich und wie kann man es mit begrenzten Ressourcen durchführen? - Unser Ziel:
Umsetzung eines praktischen Beispiels – wir haben ein Modell zur Spam-Kategorisierung konfiguriert. - Key Learning:
Der größte Zeitaufwand liegt in der Vorbereitung der Trainingsdaten. Rechenpower spielte eine untergeordnete Rolle – das Training funktioniert auch auf einem Laptop. Entscheidend ist: Die Daten dürfen keinen Bias haben und müssen gleichmäßig verteilt sein. - Der Praxisbezug:
Unternehmen können mit synthetischen Daten anfangen die Modell zu trainieren, aber reale Daten sind letztlich entscheidend. Wer Fine-Tuning beherrscht, kann eigene, hochspezialisierte KI-Anwendungen entwickeln – etwa für die Analyse von Laborberichten oder die automatische Kategorisierung von Security-Incidents.
- Die Fragestellung:
Was ist das MCP-Protokoll, wie funktioniert es und was kann man damit machen? - Unser Ziel:
Umsetzung eines kleinen Beispiels. - Key Learning:
MCP ist ein wichtiger Baustein in einer KI-Architektur und schöpft das Potenzial für Automatisierungen voll aus. Ähnlich wie API-Schnittstellen ermöglicht es, verschiedene KI-Systeme miteinander sprechen zu lassen und Workflows zu automatisieren. - Ein Beispiel:
Ein neues Laborprotokoll kommt rein. Die KI analysiert es automatisch, erstellt eine Zusammenfassung und gibt jemandem einen Auftrag – ohne manuelle Zwischenschritte. MCP ist der etablierte Standard für solche Anwendungsfälle und ein Game-Changer für effiziente Prozesse.
- Die Fragestellung:
Warum ist das Training von neuronalen Netzen so rechenpowerintensiv und welche Rolle spielen CPU und GPU? - Unser Ziel:
Hardware-Anforderungen besser verstehen. - Key Learning:
Es kommt auf das gute Zusammenspiel der Komponenten an. Je spezifischer der Zweck für ein Modell, umso weniger Rechenleistung wird benötigt. - Große Modelle (mit Milliarden von Parametern) können mehr – sie sind Allrounder: programmieren, mehrsprachig, schlussfolgern, implizite Bedeutungen verstehen. Aber sie brauchen massive Rechenpower.
- Kleine Modelle haben oft genau einen Anwendungskontext und sind spezialisiert. Sie können aus großen Modellen abgeleitet werden – etwa durch Quantisierung (das „Runden" der inneren Zahlen eines neuronalen Netzes, z. B. 0,8765467 → 0,8). Das senkt den Energieverbrauch drastisch und macht KI für Unternehmen praktisch nutzbar.
- Die Essenz:
Erst definieren, was du erreichen willst – dann die Hardware auswählen. Nicht umgekehrt.
Neben all der Technik haben wir auch über die ethischen Dimensionen gesprochen: Bias in Trainingsdaten, Transparenz von KI-Entscheidungen, Verantwortung bei automatisierten Prozessen. Diese Fragen gehören genauso in ein Forschungslabor wie die technische Umsetzung.
Warum das alles relevant ist: „Du kannst nur schützen, was du kennst"
Konkret bedeutet das:
- Cyberrisiken in KI-Anwendungen erkennen: Wenn eine Firma eine eigene KI entwickelt und trainiert, wo liegen die Sicherheitslücken? Welche Bedrohungen entstehen?
- Richtige Maßnahmen entwickeln: Wir müssen als Berater vorbereitet sein, wenn Unternehmen mit selbst trainierten Modellen auf Sicherheitsprobleme stoßen.
- KI für Security nutzen: Gleichzeitig können wir selbst KI-Tools entwickeln, die uns in der täglichen Arbeit unterstützen – etwa bei der automatischen Analyse von Security-Incidents oder der Bewertung von Schwachstellen.
Das Besondere am AI Lab: Community aus CISOs und ISBs statt Einzelkämpfer
Was uns am AI Lab Allensbach begeistert hat, war nicht nur die inhaltliche Tiefe, sondern die Art, wie wir zusammengearbeitet haben.
- Jede*r hatte eine Session vorbereitet und die anderen angeleitet, das umzusetzen.
- Wir haben auf hohem Niveau getestet und ausprobiert – nicht nur theoretisch diskutiert.
- Beim Austausch entsteht viel mehr Lernen als im stillen Kämmerlein.
- Es kommen die richtigen Menschen zusammen: Bottom-up, aus eigenem Antrieb, mit dem Mindset, etwas bewegen zu wollen.
Genau das ist der Gedanke von Generation Secure: Die Community trägt sich selbst, ob CISO (Chief Information Security Officer) oder externer IT-Sicherheitsbeauftragter – am Ende haben wir alle das gleiche Ziel. Sichere Systeme schaffen.
Mein Fazit: Investition mit 300 % Return
Was wir an diesem Wochenende erarbeitet haben, war für mich mehr als ein „Workshop“. Es war ein Booster. Die Energie erinnerte mich sofort an den Spirit vom Security-Segeln – nur noch weitergedacht und mit mehr Tiefe.
Meiner Meinung nach sind Community-getriebene Lernformate die Zukunft. Sie sind intensiv, verbindlich und transformativ.
Das AI Lab geht weiter – im Januar 2026 geht’s weiter. Und ich freue mich schon darauf, die beiden Welten von Security & AI weiter zu verbinden.