THumbnail BLog KI Segeln

Von der See an den See: Vom Security-Segeln zur Community-getriebenen KI-Forschung

Inhaltsverzeichnis

Security-Segeln trifft AI Lab am Bodensee – oder: Warum die besten Innovationen in engagierten Communities entstehen

Im Mai 2025 waren wir beim Security-Segeln unterwegs – eine Woche auf dem Mittelmeer, die weit mehr war als Segelurlaub. Zwischen Manövern, Sonne und kroatischem Essen haben wir intensiv an einer Frage gearbeitet, die jeden Cybersecurity-Professional umtreibt: Wie verändert Künstliche Intelligenz unsere Sicherheitspraxis – und wie können wir KI nutzen, ohne unsere sensiblen Daten preiszugeben? Also starteten wir mit unserer KI-Forschung, mitten auf dem Meer. 

Das Dilemma ist real: Tools wie Microsoft Copilot oder ChatGPT bieten beeindruckende Fähigkeiten, aber für Security-Profis sind sie nur bedingt nutzbar. Wer mit vertraulichen Kundendaten arbeitet, kann nicht einfach firmeninterne Informationen in öffentliche Modelle einspeisen. Die Frage lautet also: Wie schaffen wir private, unternehmensspezifische KI-Lösungen, die auf unserer eigenen Hardware laufen – frei von externen Anbietern und Datenrisiken?

Auf dem Schiff legten wir die Grundlagen: Wir luden Open-Source-Modelle herunter, definierten Use Cases und holten uns wertvollen Input von KI-Experten zu Möglichkeiten in der Architektur. Das Gefühl von Gemeinschaft und Aufbruch war spürbar – wir hatten das „Rabbit Hole“ geöffnet.

Vom Impuls zur Umsetzung: Das AI Lab am Bodensee

Einige Monate später ging es weiter – diesmal an den Bodensee. Stefan Pietzko, Freelancer im Bereich IT-Security und Teilnehmer des Security-Segelns, nahm den Faden auf und organisierte ein Follow-up: das AI Lab in Allensbach am Bodensee. So trafen sich sechs hochmotivierte Teilnehmer*innen für ein kompaktes Wochenend-Format.

Die Idee zum AI-Lab war bottom-up entstanden – nicht als Auftrag, sondern aus echtem, eigenem Antrieb. Genau das macht den Unterschied: Hier kommen Menschen zusammen, die selbst etwas bewegen wollen. Macher und Macherinnen mit dem richtigen Mindset, die gewillt sind, an Umsetzung und Austausch zu arbeiten.

AI Lab am Bodensee

Fünf Sessions, fünf Durchbrüche

Was wir in diesem intensiven Wochenende erarbeitet haben, zeigt: Community-getriebene Forschung liefert bessere Ergebnisse als isolierte Einzelprojekte. Hier ein Überblick über unsere Sessions:

1. Retrieval-Augmented Generation (RAG): Mit Unternehmensdaten chatten – ohne externe Anbieter
  • Die Fragestellung:
    Wie können wir einem KI-Modell unternehmensspezifisches Wissen mitgeben, ohne es neu zu trainieren? Wir wollen mit unseren eigenen Daten chatten – aber unabhängig von Microsoft Copilot, ChatGPT oder anderen öffentlich zugänglichen KI-Modellen.
  • Unser Ziel:
    Aufbau einer flexiblen RAG-Pipeline, die kontextbezogene Antworten liefert und nachvollziehbar bleibt.
  • Key Learning:
    Gute Ergebnisse hängen weniger von der Modellgröße als von der Datenqualität und der Retrieval-Strategie ab. Chunking, Embedding-Auswahl und Vektordatenbank-Performance sind entscheidend. Das Beste: Dafür braucht man gar kein großes Modell. Kleine, vorbereitete Modelle reichen aus – und laufen auf normaler Consumer-Hardware.
  • Warum das wichtig ist:
    Große Modelle wie ChatGPT enthalten Unmengen an Wissen, aber sie sind Allrounder. Im Unternehmenskontext gibt es häufig ganz spezifische Aufgaben, z.B.: Dokumente zusammenfassen, Reports analysieren, Prozesse automatisieren. Dafür reicht ein kleines, spezialisiertes Modell, das sehr viel weniger Energie verbraucht und keine leistungsfähige High-End-Hardware benötigt.
2. Fine-Tuning: Ein Modell für einen ganz bestimmten Zweck trainieren
  • Die Fragestellung:
    Wie funktioniert Fine-Tuning eines Modells, welche Modelle eignen sich und wie kann man es mit begrenzten Ressourcen durchführen?
  • Unser Ziel:
    Umsetzung eines praktischen Beispiels – wir haben ein Modell zur Spam-Kategorisierung konfiguriert.
  • Key Learning:
    Der größte Zeitaufwand liegt in der Vorbereitung der Trainingsdaten. Rechenpower spielte eine untergeordnete Rolle – das Training funktioniert auch auf einem Laptop. Entscheidend ist: Die Daten dürfen keinen Bias haben und müssen gleichmäßig verteilt sein.
  • Der Praxisbezug:
    Unternehmen können mit synthetischen Daten anfangen die Modell zu trainieren, aber reale Daten sind letztlich entscheidend. Wer Fine-Tuning beherrscht, kann eigene, hochspezialisierte KI-Anwendungen entwickeln – etwa für die Analyse von Laborberichten oder die automatische Kategorisierung von Security-Incidents.
3. MCP-Server: Workflows automatisieren mit dem „Protokoll für Protokolle"
  • Die Fragestellung:
    Was ist das MCP-Protokoll, wie funktioniert es und was kann man damit machen?
  • Unser Ziel:
    Umsetzung eines kleinen Beispiels.
  • Key Learning:
    MCP ist ein wichtiger Baustein in einer KI-Architektur und schöpft das Potenzial für Automatisierungen voll aus. Ähnlich wie API-Schnittstellen ermöglicht es, verschiedene KI-Systeme miteinander sprechen zu lassen und Workflows zu automatisieren.
  • Ein Beispiel:
    Ein neues Laborprotokoll kommt rein. Die KI analysiert es automatisch, erstellt eine Zusammenfassung und gibt jemandem einen Auftrag – ohne manuelle Zwischenschritte. MCP ist der etablierte Standard für solche Anwendungsfälle und ein Game-Changer für effiziente Prozesse.
4. Hardware und Performance: Warum man nicht immer die teuerste GPU braucht
  • Die Fragestellung:
    Warum ist das Training von neuronalen Netzen so rechenpowerintensiv und welche Rolle spielen CPU und GPU?
  • Unser Ziel:
    Hardware-Anforderungen besser verstehen.
  • Key Learning:
    Es kommt auf das gute Zusammenspiel der Komponenten an. Je spezifischer der Zweck für ein Modell, umso weniger Rechenleistung wird benötigt.
  • Große Modelle (mit Milliarden von Parametern) können mehr – sie sind Allrounder: programmieren, mehrsprachig, schlussfolgern, implizite Bedeutungen verstehen. Aber sie brauchen massive Rechenpower.
  • Kleine Modelle haben oft genau einen Anwendungskontext und sind spezialisiert. Sie können aus großen Modellen abgeleitet werden – etwa durch Quantisierung (das „Runden" der inneren Zahlen eines neuronalen Netzes, z. B. 0,8765467 → 0,8). Das senkt den Energieverbrauch drastisch und macht KI für Unternehmen praktisch nutzbar.
  • Die Essenz:
    Erst definieren, was du erreichen willst – dann die Hardware auswählen. Nicht umgekehrt.
5. Ethische Fragen: Was wir nicht ausklammern dürfen

Neben all der Technik haben wir auch über die ethischen Dimensionen gesprochen: Bias in Trainingsdaten, Transparenz von KI-Entscheidungen, Verantwortung bei automatisierten Prozessen. Diese Fragen gehören genauso in ein Forschungslabor wie die technische Umsetzung.

Warum das alles relevant ist: „Du kannst nur schützen, was du kennst"

Für uns als Security-Professionals geht es nicht darum, selbst KI-Systeme einzuführen. Wir wollen Security beraten – und dafür müssen wir KI-Systeme in der Tiefe verstehen. Denn KI-Anwendungen haben eine andere Dynamik als klassische IT-Systeme. Sie entwickeln sich, sie lernen, sie sind schwer kontrollierbar. Umso mehr müssen wir geschützte Räume schaffen, in denen Unternehmen mit ihre Auswertungen fahren können, ohne Angst vor Datenklau
 

Konkret bedeutet das:

Das Besondere am AI Lab: Community aus CISOs und ISBs statt Einzelkämpfer

Was uns am AI Lab Allensbach begeistert hat, war nicht nur die inhaltliche Tiefe, sondern die Art, wie wir zusammengearbeitet haben.

  • Jede*r hatte eine Session vorbereitet und die anderen angeleitet, das umzusetzen.
  • Wir haben auf hohem Niveau getestet und ausprobiert – nicht nur theoretisch diskutiert.
  • Beim Austausch entsteht viel mehr Lernen als im stillen Kämmerlein.
  • Es kommen die richtigen Menschen zusammen: Bottom-up, aus eigenem Antrieb, mit dem Mindset, etwas bewegen zu wollen.

 

Genau das ist der Gedanke von Generation Secure: Die Community trägt sich selbst, ob CISO (Chief Information Security Officer) oder externer IT-Sicherheitsbeauftragter – am Ende haben wir alle das gleiche Ziel. Sichere Systeme schaffen.

AI lab am Bodensee

Mein Fazit: Investition mit 300 % Return

Was wir an diesem Wochenende erarbeitet haben, war für mich mehr als ein „Workshop“. Es war ein Booster. Die Energie erinnerte mich sofort an den Spirit vom Security-Segeln – nur noch weitergedacht und mit mehr Tiefe.

Meiner Meinung nach sind Community-getriebene Lernformate die Zukunft. Sie sind intensiv, verbindlich und transformativ.

Das AI Lab geht weiter – im Januar 2026 geht’s weiter. Und ich freue mich schon darauf, die beiden Welten von Security & AI weiter zu verbinden.

Du willst Teil dieser Community werden?

Schreib uns – vielleicht bist du beim nächsten Security-Segeln (26. Sept. – 3. Okt. 2026) oder beim AI Lab im Januar 2026 dabei. Die Plätze sind limitiert, die Wirkung bleibt nachhaltig.

Teile diesen Artikel:

a woman sitting in a chair

Du suchst Beratung für die Informations-Sicherheit deines Unternehmens? Oder hast weitere Fragen rund um das Thema Cyber Security?

Kontaktiere mich gerne unverbindlich – ich freue mich, wenn ich dir helfen kann.