jexnovarion Logo

jexnovarion

Unser Team aus KI-Forschern und Praktikern

Wir verbinden akademische Forschung mit realer Anwendungserfahrung. Bei uns lernen Sie von Menschen, die täglich mit Large Language Models arbeiten – nicht nur theoretisch, sondern praktisch.

Unser Ansatz basiert auf Erfahrung

Seit 2023 begleiten wir Unternehmen bei der Integration von LLMs. Was funktioniert wirklich? Wo liegen die Herausforderungen? Diese Fragen beantworten wir nicht mit Theorie, sondern mit konkreten Beispielen aus echten Projekten.

Unsere Lehrmethode entstand aus dem Bedarf nach praxisnaher Weiterbildung. Viele technische Teams stehen vor ähnlichen Problemen – wir zeigen Lösungswege, die sich bewährt haben.

Praxisorientierte Forschung

Wir testen neue Modelle und Techniken zuerst selbst, bevor wir sie weitergeben. Das bedeutet: Sie lernen von Methoden, die bereits in realen Umgebungen validiert wurden.

Modularer Wissensaufbau

Jeder startet mit unterschiedlichen Vorkenntnissen. Deshalb strukturieren wir Inhalte so, dass Sie gezielt das vertiefen können, was für Ihre Situation relevant ist.

Kontinuierliche Anpassung

LLM-Technologie entwickelt sich schnell. Unsere Programme werden regelmäßig aktualisiert – basierend auf aktuellen Entwicklungen und Teilnehmer-Feedback.

Die Menschen hinter den Programmen

Zwei unterschiedliche Perspektiven – ein gemeinsames Ziel: praxisrelevantes Wissen vermitteln.

Porträt von Dr. Linnea Bergström

Dr. Linnea Bergström

Forschung & Modellarchitektur

Linnea kam 2022 von der ETH Zürich zu uns, wo sie an Transformer-Architekturen geforscht hat. Ihre Dissertation über kontextuelle Einbettungen wurde mehrfach zitiert. Bei uns übersetzt sie komplexe Forschungsthemen in verständliche Konzepte – ohne dabei an Präzision zu verlieren.

Porträt von Henrik Voss

Henrik Voss

Integration & Deployment

Henrik hat sieben Jahre als ML-Engineer bei verschiedenen Tech-Unternehmen gearbeitet, bevor er zu uns kam. Seine Stärke: aus theoretischen Modellen produktionsreife Systeme bauen. Er kennt die typischen Stolpersteine bei LLM-Implementierungen und zeigt, wie man sie umgeht.

Wie wir arbeiten

Unser Programm startet im November 2025. Bis dahin entwickeln wir die Inhalte weiter und passen sie an aktuelle Entwicklungen an. Die Anmeldung öffnet im Juni 2025.

Arbeitsumgebung mit technischer Ausstattung für KI-Entwicklung

Flexibel, aber strukturiert

Sie entscheiden, wann Sie lernen. Alle Materialien sind asynchron verfügbar. Trotzdem gibt es Struktur: wöchentliche Live-Sessions für Fragen und praktische Übungen, die auf echten Szenarien basieren.

Die meisten Teilnehmer investieren 8-12 Stunden pro Woche. Das variiert natürlich je nach Vorkenntnissen und Zielen.

Live-Workshops

Jeden Mittwoch diskutieren wir aktuelle Herausforderungen. Diese Sessions werden aufgezeichnet – falls Sie nicht live dabei sein können.

Code-Reviews

Sie arbeiten an eigenen Projekten, wir geben Feedback. So lernen Sie nicht nur theoretisch, sondern an Ihren eigenen Use Cases.

Ressourcen-Bibliothek

Dokumentationen, Code-Beispiele, Papers – alles an einem Ort. Wir aktualisieren laufend, wenn neue relevante Entwicklungen auftauchen.

Individuelle Lernpfade

Manche wollen tief in Prompt Engineering eintauchen, andere interessieren sich mehr für Fine-Tuning oder Deployment-Strategien. Deshalb haben Sie nach einem gemeinsamen Grundlagenteil die Möglichkeit, Schwerpunkte zu setzen.

Detailansicht moderner Entwicklungsumgebung mit Code-Editor