jexnovarion Logo

jexnovarion

Ihr Weg zu praktischer KI-Kompetenz

Große Sprachmodelle verändern, wie wir arbeiten. Aber zwischen Schlagzeilen und echtem Können liegt ein Weg. Unser Programm startet im Oktober 2025 und bringt Sie vom ersten Prompt bis zur eigenständigen Entwicklung.

Keine Garantien, keine Versprechen über schnellen Erfolg. Stattdessen: strukturiertes Lernen, klare Meilensteine und kontinuierliche Begleitung durch erfahrene Entwickler.

Mehr erfahren
Teilnehmer beim gemeinsamen Arbeiten an KI-Projekten

Fünf Stufen vom Anfang bis zur Anwendung

Das Programm dauert neun Monate. Jede Phase baut auf der vorherigen auf. Sie bestimmen das Tempo, aber die Struktur gibt Ihnen Orientierung.

1

Grundlagen verstehen

Hier geht's los. Was sind große Sprachmodelle eigentlich? Wie funktionieren sie unter der Haube? In den ersten sechs Wochen beschäftigen Sie sich mit Konzepten wie Tokenisierung, Attention-Mechanismen und Training.

  • Architektur von Transformer-Modellen nachvollziehen
  • Unterschiede zwischen GPT, BERT und anderen Ansätzen kennen
  • Erste Experimente mit öffentlichen APIs durchführen
2

Prompt Engineering beherrschen

Gute Prompts zu schreiben ist mehr als nur höflich fragen. Sie lernen systematische Techniken: Few-Shot-Learning, Chain-of-Thought, Rollenbasierte Anfragen. Acht Wochen voller Übungen und direktem Feedback.

  • Präzise Anweisungen formulieren, die konsistente Ergebnisse liefern
  • Kontextfenster optimal nutzen ohne wichtige Infos zu verlieren
  • Häufige Fehler erkennen und vermeiden lernen
3

APIs und Integration

Jetzt wird's technisch. Sie verbinden Modelle mit echter Software. REST-APIs, Authentifizierung, Fehlerbehandlung. Zehn Wochen, in denen Sie lernen, wie man LLMs in bestehende Systeme einbaut.

  • Mit verschiedenen Anbietern arbeiten: OpenAI, Anthropic, lokale Modelle
  • Streaming-Responses implementieren für bessere User Experience
  • Kosten im Blick behalten und effizient mit Tokens umgehen
4

Fine-Tuning und Anpassung

Standard-Modelle sind gut, aber manchmal braucht man mehr. Diese neun Wochen zeigen Ihnen, wie Sie Modelle für spezifische Anwendungsfälle trainieren. Datenaufbereitung, Hyperparameter-Tuning, Evaluierung.

  • Eigene Trainingsdaten vorbereiten und bereinigen
  • Transfer Learning nutzen um Zeit und Ressourcen zu sparen
  • Modell-Performance objektiv messen und verbessern
5

Projekt und Abschluss

Die letzten acht Wochen gehören Ihrem eigenen Projekt. Sie entwickeln eine Anwendung von Grund auf. Wir begleiten Sie, geben Feedback, helfen bei Problemen. Am Ende präsentieren Sie Ihre Arbeit.

  • Projektplanung von der Idee bis zur Umsetzung
  • Echte Herausforderungen meistern: Skalierung, Sicherheit, Monitoring
  • Code-Reviews und konstruktive Kritik von erfahrenen Entwicklern

Zwei Wege, ein Ziel erreicht

Diese beiden Teilnehmer haben unser Programm 2024 absolviert. Ihre Ausgangssituationen waren komplett unterschiedlich. Aber beide haben durchgehalten und können jetzt mit LLMs arbeiten.

Portrait von Anneliese Fähndrich

Der Anfang

Anneliese hatte jahrelang Software-Projekte geleitet, aber nie selbst programmiert. Sie wollte verstehen, wovon ihre Entwickler sprachen. Die ersten Wochen waren hart – Python war komplett neu für sie.

Der Durchbruch

In der dritten Phase, bei der API-Integration, klickte es. Sie baute einen Chatbot für interne Dokumentation. Plötzlich ergab alles Sinn. Die Theorie wurde praktisch nutzbar.

Heute

Sie koordiniert jetzt KI-Projekte in ihrem Unternehmen. Nicht als reine Managerin, sondern mit echtem technischen Verständnis. Kann Code lesen, Probleme einschätzen, realistische Zeitpläne erstellen.

Portrait von Torben Waldherr

Die Ausgangslage

Torben entwickelte seit Jahren klassische REST-APIs. Solide, zuverlässig, bewährt. Aber er merkte: Kunden fragten immer öfter nach KI-Features. Er wollte nicht zurückbleiben.

Die Herausforderung

Fine-Tuning war sein Stolperstein. Die statistischen Konzepte waren ungewohnt. Deterministische Logik war sein Ding, nicht probabilistische Modelle. Er brauchte mehrere Anläufe.

Das Ergebnis

Sein Abschlussprojekt war ein Dokumentationsassistent für Legacy-Code. Er kombinierte sein bestehendes Wissen mit neuen KI-Fähigkeiten. Bekam dadurch einen besseren Job mit mehr Verantwortung.