
Big Techday 25
24. Oktober 2025
Vorträge
Hier finden Sie die Vorträge unseres Big Techday 25, der am 24. Oktober in der Motorworld München stattfinden wird.
Die Vorträge unserer vergangenen Big Techdays finden Sie in unserem Rückblick. Sofern wir die Erlaubnis der Speaker erhalten haben, sind die Aufzeichnungen und die Präsentationsfolien in den Details des jeweiligen Vortrags hinterlegt.
Themen der Vorträge
Abenteuer
Zeit
19:00 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
Beyond the summit - Inspiration from fourteen peaks
Wie kann das Erklimmen aller 14 höchsten Gipfel über eine rein körperliche Leistung hinausgehen und zu einer Quelle der Inspiration werden?
Nima Rinji Sherpa erzählt über seinem Weg von seinem Heimatdorf Makalu bis hin zum jüngsten Menschen, der auf allen 14 Achttausendern der Welt stand. Er spricht über seine ganzheitliche Philosophie, die Anpassungsfähigkeit, mentale Stärke und eine symbiotischen Respekt vor der Natur betont und damit gängige Ansätze des Bergsteigens in Frage stellt. Anhand von persönlichen Anekdoten und Einblicken aus seinen Dokumentationen zeigt Nima, wie sich aus Tragödien Widerstandskraft entwickeln lässt und ermutigt so eine neue Generation dazu, jenseits der Gipfel nach Sinn und Erfüllung zu streben.
Architektur & Design
Zeit
9:00 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Secure bare-metal Kubernetes at idgard: Zero internal access to customer data by design
Idgard, eine Security-First-Dateifreigabeanwendung, stellt strenge betriebliche Anforderungen, um die Privatsphäre der Nutzerdaten zu gewährleisten. Insbesondere das zentrale Versprechen – kein unautorisierter Zugriff, selbst durch Entwickler oder Betriebspersonal – schränkt die betrieblichen Möglichkeiten erheblich ein.
Dieser Vortrag beleuchtet die damit verbundenen Herausforderungen und technischen Feinheiten beim Aufbau einer sicheren Bare-Metal-Kubernetes-Umgebung, die diesen Anforderungen gerecht wird. Behandelt werden unter anderem Network-Bootstrap, unveränderliche Cluster-Setups, mehrschichtige Zugriffskontrollen sowie robuste Monitoring- und Alarmierungsmechanismen.
Cloud
Zeit
10:10 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Dirty trenches & clean code - What to learn from a telco’s Cloud-first strategy
OXG wurde 2023 als Tochtergesellschaft von Vodafone gegründet, um ein Glasfaser-Telekommunikationsunternehmen aufzubauen – und das so „sauber“ wie möglich. Dabei setzt OXG beim Verlegen der Glasfaserkabel konsequent auf einen modernen Cloud-First-Ansatz im Tech-Stack.
Und es hat funktioniert – größtenteils. Heute setzt OXG eine Mischung aus Eigenentwicklung und Drittanbieterkomponenten ein. Die Bausteine, welche die proprietäre Geschäftslogik zusammenhalten, sind zwar schick, serverlos, Cloud-nativ und für ein One-Click-Deployment voll automatisiert. Doch wie jedes andere Unternehmen ist auch OXG an die Realität gebunden.
Die Einrichtung einiger weniger „nicht-ganz-so-Cloud-nativer“ Anwendungen fühlte sich dabei an, als würde man einen Dinosaurier in ein Raumschiff schmuggeln – inklusive fest codierter Passwörter, teurem Extragepäck, fragwürdigen Sicherheitsbewertungen und einem Boarding-Prozess, der drei Deployment-Pipelines und reichlich Kaffee erforderte.
Dieser Vortrag gibt einen Überblick über die Höhen und Tiefen der vergangenen zwei Jahre – und verrät, warum ein Fitnessstudio-Abo im Grunde dasselbe ist wie ein Backup- & Recovery-Plan.
Zeit
14:55 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
From field to cloud
Die digitale Planung ist aus modernen Agrarbetrieben nicht mehr wegzudenken. Von satellitengestützter Düngeplanung bis zu Echtzeitdaten vom Traktor: Die Landwirtschaft wird durch Daten neu definiert. Die Herausforderung liegt darin, aus diesen Informationen greifbare Handlungsempfehlungen zu gewinnen.
Die digitale Farming-Plattform schlägt mithilfe einer Architektur von Microfrontends und Microservices die Brücke zwischen Feld und Büro. Der Vortrag zeigt, wie Web- und Mobile-Apps Landwirte, Händler und Techniker mit integrierten Lösungen und durchdachter User Experience unterstützen. Dabei wird auf die technischen Herausforderungen eingegangen, die das Team im Bezug auf Themen wie Konsistenz, Komplexität und teamübergreifender Kommunikation meistern konnte. Seien Sie dabei und erfahren Sie wie Yara Farming Solutions Europe die digitale Landwirtschaft transformiert.
Computer & Games
Zeit
14:55 Uhr
Ort
Kohlebunker I
Sprache
EN
Speaker
Vortrag
enigame - the joy of solving tricky tasks: Europe's largest code and cipher cracking contest
Menschen sind geborene Problemlöser. Der Drang, Geheimnisse zu entdecken, Rätsel zu lösen und Dingen auf den Grund zu gehen, steckt uns in der Natur. Viele von uns verdienen damit sogar ihren Lebensunterhalt: Fachleute in MINT-Bereichen gehen täglich komplexe Probleme an. Doch wodurch wird ein Problem zum spannenden Rätsel statt zur lästigen Pflichtaufgabe? In diesem Vortrag wird der Kern der täglichen Arbeit von enigame beleuchtet - Codes, Chiffren, Muster, Logik und Kreativität - durch die Brille von Rätseljagden.
Anhand von Europas größter Rätseljagd, enigame, werden die Kernelemente guter Puzzle-Designs gezeigt, die Menschen wirklich fesseln. Dabei wird deutlich: Durchdachte Rätsel fördern nicht nur Kreativität und geistige Flexibilität, sondern schaffen auch ein starkes Gefühl von Gemeinschaft und Zusammenarbeit.
Hardware & Reality Hacking
Sprache
EN
Speaker
Vortrag
From concept to launch: Challenges in rocket design
Bei der European Rocketry Challenge 2025 in Portugal trat BME Suborbitals als erstes ungarisches Team mit einer Rakete an, die von einem selbstentwickelten Feststoffmotor angetrieben wird. Die Rakete - Aurora, unterstützt von evosoft - stellt das bislang anspruchsvollste Projekt des Teams dar. Sie kombiniert eine neu entwickelte interne Rahmenstruktur, ein verteiltes Avioniksystem sowie ein aktiv steuerbares Luftbremssystem. Konzipiert für den Transport einer 3U‑CubeSat‑Nutzlast und eines CanSat auf eine Flughöhe von rund 3000 Metern, ist Aurora das Ergebnis mehrjähriger studentischer Entwicklungsarbeit, Pioniergeist und konsequenter Teamleistung.
In diesem Vortrag gibt das Team Einblicke in seinen Weg zur EuRoC, beleuchtet die größten Herausforderungen und wichtigsten Meilensteine von den ersten Konzeptideen bis hin zum finalen Start und bietet die Möglichkeit, Aurora aus nächster Nähe zu erleben.
KI - Forschung
Sprache
EN
Speaker
Vortrag
Beyond ChatBots: Unleashing human creativity with cognitive cartography, glass-box self-recoding AI, and visual data science in Mantis
Dieser Vortrag stellt Mantis vor, eine interaktive Mensch-KI-Plattform, die über herkömmliche Chatbot-Frameworks hinausgeht, die Menschen oft aus kreativen Prozessen ausschließen und zu stark vereinfachte Antworten liefern. Mantis macht Komplexität sichtbar und verbindet natürliche Sprache, strukturierte Daten und visuelles Denken in einer gemeinsamen Arbeitsumgebung für Erkundung und Entdeckung. Mantis erstellt Bedeutungskarten – semantische Landschaften, die Ideen, Dokumente, Mitarbeiter, Moleküle, Gene und Patienten darstellen – und ermöglicht es Benutzerinnen und Benutzern, innerhalb interaktiver Arbeitsabläufe zu navigieren, zu clustern, zu kommentieren und sich weiterentwickelnde KI-Agenten zu steuern. Es wird in verschiedenen Bereichen angewendet, verwandelt Hypothesen in iterative datenwissenschaftliche Arbeitsabläufe, bildet den Verlauf von Patienten von den Symptomen bis zu den Ergebnissen im Gesundheitswesen ab und ermöglicht es, Medikamenten durch Struktur-Funktions-Analysen in der Biologie zu entdecken. Jedes Tool in Mantis ist ein autonomer denkender Agent, der von einem Orchestrator koordiniert wird, der die Ziele der Benutzerinnen und Benutzer interpretiert und Aufgaben verwaltet. Die Plattform versteht ihre eigene Architektur und kann neuen Code generieren, um sich selbst zu erweitern. Mantis ist kein Chatbot. Es ist ein neues Paradigma dafür, wie sich Menschen und Maschinen durch kollaboratives Kreieren gemeinsam weiterentwickeln.
Zeit
13:45 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
Chemputation
Die digitale Chemie entwickelt sich zu einer neuen Disziplin an der Schnittstelle zwischen Chemie, Informatik und Automatisierung. An der Universität Glasgow und bei Chemify Ltd wurde das Konzept der Chemputation entwickelt: die Programmierung von Chemie unter Verwendung einer universellen chemischen Sprache, Robotik und digitaler Infrastruktur, um die Synthese reproduzierbar, skalierbar und deterministisch zu machen. Dieses Framework schließt die Lücke zwischen algorithmischem Design und physikalischer Umsetzung und ermöglicht es, chemische Prozesse als Code zu kodieren und auf Roboterplattformen auszuführen. Die erste groß angelegte Umsetzung dieser Vision ist Chemifarm von Chemify in Glasgow, eine vollautomatisierte Anlage, die KI-gesteuertes Moleküldesign mit Robotik im industriellen Maßstab und einer wachsenden digitalen Reaktionsbibliothek integriert. Indem Theorie, Software und Laborhardware vereinheitlicht werden, bietet Chemputation eine reproduzierbare Grundlage, um Entdeckungen in den Bereichen Wirkstoffdesign, Materialwissenschaften und komplexe chemische Systeme zu beschleunigen, und öffnet gleichzeitig die Tür zu einer dezentralisierten und außerirdischen chemischen Produktion. Chemputation ist die Zukunft der Chemie sowohl in der Wissenschaft als auch in der Industrie.
Sprache
EN
Speaker
Vortrag
Deeptech for depression treatment
Mext hat sich zum Ziel gesetzt, die Versorgung im Bereich psychischer Gesundheit zu revolutionieren, indem die Therapie von Depressionen überall und jederzeit zugänglich gemacht wird – unabhängig davon, wo und wie Menschen leben. Mithilfe mobiler, benutzerfreundlicher Geräte ermöglicht Mext Patientinnen und Patienten eine wirksame Neuromodulationsbehandlung außerhalb klinischer Einrichtungen, wodurch Hindernisse abgebaut werden und eine selbstbestimmte Therapie unterstützt wird. Parallel dazu werden maschinelles Lernen und KI eingesetzt, um wichtige Daten in Echtzeit zu sammeln und zu analysieren, mit dem Ziel, die Sicherheit zu gewährleisten und zu untersuchen, wie diese Erkenntnisse letztendlich in therapeutische Protokolle einfließen und diese verändern könnten. Zusammen bildet diese Integration von mobilen Gesundheitstechnologien und intelligenter Datenanalyse die Grundlage für stärker personalisierte, besser skalierbare und sicherere Behandlungen im Bereich der psychischen Gesundheit.
Zeit
10:10 Uhr
Ort
Strietzel I + II
Sprache
EN
Speaker
Vortrag
Finally understand embeddings - And you will never have to search for the right emoji again
Embeddings sind die Grundlage dafür, wie Large Language Models die Welt verstehen. Wer sich darüber informiert, stößt jedoch schnell auf einschüchternde Begriffe wie Tensoren, Matrizen oder Multi-Head Attention. Doch das ist gar nicht nötig! In dem Talk erklären Elias Schecke und Dennis Schulz, wie Embeddings funktionieren und welche zentrale Rolle sie als Werkzeug im Natural Language Processing spielen. Zur Veranschaulichung wird eine Demo-Anwendung gezeigt, die zu jeder Chat-Nachricht ein passendes, stilvolles Emoji auswählt - damit auch Eltern künftig zum richtigen Symbol greifen. Sie erläutern, warum Sprache in hochdimensionale Vektoren übersetzt wird, und entwickeln darauf aufbauend eine Beispielanwendung für die Emojisuche. Dabei gehen sie auf Semantic Search, Finetuning und multimodale Embeddings ein, geben einen Überblick über gängige Benchmarks und zeigen, wie sich Anwendungen für semantische Suche erfolgreich skalieren lassen.
Zeit
13:45 Uhr
Ort
Kohlebunker I
Sprache
EN
Speaker
Vortrag
How to get into the top ten model providers on the world's largest LLM aggregator platform
KI - Lösungen
Zeit
16:15 Uhr
Ort
Rollprüfstand
Sprache
DE
Speaker
Vortrag
AI Hits Different - Ein Musikalbum aus dem Maschinenraum
Was passiert, wenn im Sabbatical kein Buch entsteht, sondern ein Musikalbum - mit künstlicher Intelligenz als Co-Produzentin? Der Vortrag demonstriert, wie sich mithilfe verschiedener KI-Tools innerhalb weniger Wochen ein vollständiges Album realisieren lässt - von den ersten Textzeilen über das Arrangement bis hin zum Mastering.
Die eingesetzten Sprachmodelle generieren Liedtexte und übernehmen dabei stilistische Merkmale durch gezieltes In-Context Learning mit eigenen Songtexten. Suno AI liefert erste musikalische Ideen, Splitter AI trennt Gesang, Schlagzeug und Instrumente, während Basic Pitch Audiosignale in MIDI-Daten umwandelt. Zusätzlich kommen MidJourney, Sora und KI-basierte Mastering-Engines zum Einsatz. Der Workflow kombiniert kreative Kontrolle mit effizienter Automatisierung - weit entfernt von einfachen One-Click-Ergebnissen.
Im Rahmen des Vortrags bietet Musikproduzent Ivo Moring (u. a. DJ Ötzis "Ein Stern") ergänzende Einblicke in die professionelle Musikproduktion im Mainstream-Umfeld. Er zeigt, wie etablierte Produktionsprozesse bei Major Labels funktionieren, welche Rolle KI bereits spielt und welche Herausforderungen sich daraus ergeben.
Der Vortrag liefert einen praxisnahen Einblick in Tools, Workflows und kreative Potenziale moderner KI-gestützter Musikproduktion - mit konkreten Learnings für Entwicklerinnen und Entwickler, Kreative und Tech-Enthusiasten.
Zeit
14:55 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
AI-Driven e-commerce: Scaling direct digital customer relationships
Hilti bringt KI ins Herz seiner E-Commerce Plattform, um den Nutzern effektivere, individualisierte Ergebnisse zu liefern. Aufbauend auf den bewährten direkten Beziehungen von Hilti zu seinen Kunden soll dies global skaliert werden. In diesem Vortrag präsentieren wir unsere ersten Echtzeit-Anwendungen von KI-Services, die live auf hilti.com sind: Re-ranking von Suchergebnissen mit CatBoost, angepasst an die Ziele der Nutzer, und die Empfehlung von weiteren Produkten zum Einkauf durch Graphen-basierte Neuronale Netzwerke (Graph Neural Networks, GNN). Wir werden außerdem erklären, welche AWS Infrastruktur gewählt wurde, um diese KI-Modelle sowohl schnell und effizient als auch robust und skalierbar ins Kundenerlebnis einzubinden.
Zeit
10:10 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
From data to decisions: Democratizing insight generation with Agentic AI in BMW’s Cloud Data Hub
Die Vision des Teams ist es, jedem BMW-Mitarbeitenden zu ermöglichen, eigenständig Erkenntnisse aus Daten zu gewinnen – und dabei jederzeit die Einhaltung von Governance-, Sicherheits- und Qualitätsstandards sicherzustellen. Um diese Vision in einer komplexen und unternehmensweiten Datenlandschaft Wirklichkeit werden zu lassen, war ein grundlegender Wandel in ihrem Ansatz zur Datenzugänglichkeit erforderlich. Begleiten Sie das Team auf ihrer Reise, in der sie zeigen, wie sie agentische KI eingesetzt haben, um die Datenanalyse im zentralen BMW Data Lake, dem Cloud Data Hub, zu demokratisieren. Sie stellen das Design einer Plattformlösung vor, die Big-Data-Analysen für alle Nutzenden zugänglich macht – auch für diejenigen ohne technische Vorkenntnisse – und dies über eine intuitive, KI-gestützte Benutzeroberfläche. Erfahren Sie, wie sie sich von statischen, SQL-basierten Workflows hin zu einem dynamischen Multi-Agenten-System entwickelt haben, das Datenerkennung, Abfrage, Visualisierung und Dokumentation über ein koordiniertes Netzwerk speziell entwickelter KI-Agenten orchestriert. Ihre Architektur ist darauf ausgelegt, in heterogenen Datenumgebungen zu bestehen – mit besonderem Fokus auf Erklärbarkeit, Sicherheit und Robustheit. In diesem Vortrag geben sie außerdem praxisnahe Einblicke in den Einsatz agentischer Systeme im großen Maßstab und teilen konkrete Handlungsempfehlungen, wie KI-gestützte Self-Service-Analytics im Unternehmensmaßstab erfolgreich umgesetzt werden können.
Zeit
16:15 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Leveraging confidential data: Implementing a scalable RAG solution for insurance and finance
Die Versicherungs- und die Finanzbranche sind in hohem Maße darauf angewiesen, strukturierte Erkenntnisse aus unstrukturierten Daten zu gewinnen und dabei strenge Datenschutzstandards einzuhalten. Bestimmte Transaktionen generieren große Mengen an Dokumenten, die kleine Expertenteams unter hohem Zeitdruck bearbeiten müssen - wodurch nicht der Dealflow, sondern die Teamkapazität zum größten Bottleneck wird. Munich Re Markets hat in Zusammenarbeit mit TNG und anderen Partnern eine spezialisierte RAG‑Anwendung (Retrieval Augmented Generation) entwickelt, um diesen Anforderungen gerecht zu werden. Diese Lösung ermöglicht die Abfrage komplexer Dokumente - einschließlich Tabellenextraktion - unter Verwendung der jeweils besten verfügbaren KI‑Modelle, die abhängig von den Vertraulichkeitsanforderungen ausgewählt werden.
Es wird der Weg zur Entwicklung dieses Workflows, einschließlich Dokumenten‑Parsing und ‑Indexierung, Retrieval und Antwortgenerierung in einer skalierbaren, mandantenfähigen Architektur, erläutert. Der Vortrag befasst sich mit Herausforderungen wie der Verarbeitung von Dokumenten und Anfragen in unterschiedlichen Sprachen, der Extraktion von Informationen aus Tabellen und der Möglichkeit für Benutzerinnen und Benutzer, anhand von Dokumentenkategorien zu suchen. Durch die Pflege von Testsuiten zur Qualitätsbewertung sowohl des Retrievals als auch der Antwortgenerierung wird eine konsistente Qualität sichergestellt, die durch den Einsatz neu entwickelter KI‑Techniken schrittweise verbessert wird. Zudem wird es Einblicke in das UX‑Design geben, das auf die Bedürfnisse nichttechnischer Benutzer ausgerichtet ist.
Zeit
14:55 Uhr
Ort
Strietzel I + II
Sprache
EN
Speaker
Vortrag
The next wave of disruption in engineering
Im Zeitalter der LLMs stellt sich zwangsläufig die Frage, wo wir hinsichtlich der Anwendbarkeit groß angelegter Deep-Learning-Modelle in wissenschaftlichen oder technischen Bereichen stehen. Oder etwas anders formuliert: Welche Art von Skalierung ist erforderlich, um neben Sprache und Bildverarbeitung auch andere Branchen zu revolutionieren? Die Diskussion beginnt mit einem Rückblick auf die jüngsten Erfolge in der Wetter- und Klimamodellierung, die zum ersten Grundlagenmodell für Erdsysteme geführt haben. Anschließend werden die Herausforderungen und konzeptionellen Hindernisse diskutiert, die für die nächste Welle der Disruption im Ingenieurwesen überwunden werden müssen.
Zeit
10:10 Uhr
Ort
Kohlebunker I
Sprache
DE
Speaker
Vortrag
Von der Idee bis zum Rollout - der Betrieb von KI-Lösungen
Künstliche Intelligenz verspricht enormes Potenzial - doch der Weg von der ersten Idee bis hin zum produktiven Rollout und nachhaltigen Betrieb ist komplex. In diesem Vortrag teilt Mark Brinkmann seine Erfahrungen aus den letzten Jahren. Er zeigt, wie typische Erfolgsfaktoren und Stolpersteine entlang des gesamten Lebenszyklus - von der Konzeption über die Entwicklung bis zum Betrieb, aussehen. Ein besonderer Fokus liegt dabei auf STACKIT, der Cloud-Plattform, die als Fundament für Souveränität und Sicherheit dient.
KI - Tools
Zeit
14:55 Uhr
Ort
Röhrl / Geistdörfer
Sprache
EN
Speaker
Vortrag
Automating the Web: TNG's Web AI Navigator
Was wäre, wenn ein digitaler Teamkollege für Sie im Web und in Ihren internen Tools klicken, lesen und tippen könnte - damit Sie es nicht tun müssen? Lernen Sie TWAIN kennen, TNGs Web AI Navigator: ein Multi-Agenten-System, das Arbeit wirklich erledigt. Ob Jira-Tickets anlegen und aktualisieren, Confluence-Seiten zusammenfassen, Reisen buchen oder E-Mails triagieren und beantworten - TWAIN navigiert autonom durch echte Workflows, statt bei bloßen Vorschlägen stehenzubleiben.
Dr. Maxim Stykow und Alexander zur Bonsen zeigen, wie sie TWAIN gebaut haben und was sie dabei auf die harte Tour gelernt haben. Unter der Haube verbindet TWAIN Browser-Automatisierung, Zugriff auf interne APIs und LLM-Planung; das Model Context Protocol (MCP) ermöglicht ein Plug-and-Play-Ökosystem von Tools mit quasi unendlicher Erweiterbarkeit.
Freuen Sie sich auf:
• Live-Demos von Ende-zu-Ende‑Workflows, in denen TWAIN Aufgaben übernimmt, die sonst mehrere Tabs und viele Klicks kosten.
• Architektur-Patterns für robuste KI-Agenten im Alltag - nicht nur im Labor.
• Praxiserprobte Lösungen für die rauen Realitäten: SSO-/Authentifizierungs-Flows, instabile DOMs, Kontext-Limits, Rate Limits und Fehlerwiederherstellung.
• Wie sie Privacy-First-Prinzipien verankern und gleichzeitig eine natürliche, dialogorientierte - und ein bisschen magische - User Experience bieten.
Sie gehen mit praktischen Patterns, vermeidbaren Stolperfallen und Checklisten nach Hause, die Sie direkt nutzen können, um ähnliche Agenten in Ihrer eigenen Umgebung einzuführen. Der Talk richtet sich an Software Engineers und Architects sowie Product Manager, die KI von „Chat“ zu „Ship“ bringen wollen. Bringen Sie Ihre Fragen und Ihre kniffligsten Workflows mit.
Zeit
9:00 Uhr
Ort
Strietzel I + II
Sprache
EN
Speaker
Vortrag
Can AI see you? Your introduction to Computer Vision and GenAI
Dein Computer kann die visuelle Welt um dich herum verstehen - oder sogar eine neue erstellen. Von FaceID und Snapchat-Filtern bis hin zu Stable Diffusion ist visuelle KI Teil vieler alltäglicher Anwendungen geworden - und ihre Integration ist leichter denn je. Lass uns in die Welt der Computer Vision und visueller GenAI eintauchen! Die Sprecher erkunden, wie Deep-Learning-Techniken uns helfen, visuelle Informationen zu verarbeiten, zu analysieren und sogar zu verändern.
Dabei beginnen sie mit einer kurzen Einführung in die Verarbeitung von Bildern und Videos in Computern. Anschließend tauchen sie in die Welt der Convolutional Neural Networks (CNNs) ein und zeigen, wie unterschiedliche Architekturen dabei helfen, verschiedene Disziplinen der Computer Vision wie Klassifizierung, Segmentierung oder Posen-Erkennung zu meistern. Schließlich werden sie sich mit GenAI befassen und untersuchen, wie Diffusionsmodelle wie Stable Diffusion Bilder generieren und vervollständigen. Während des Vortrags werden theoretische Konzepte mit einer Vielzahl von Live-Demos und Praxisbeispielen veranschaulicht. Du willst sofort loslegen? Der Vortrag gibt dir einen Überblick über einige Open-Source-Frameworks wie MediaPipe oder YOLO, die du zu Hause ausprobieren kannst.
Zeit
13:45 Uhr
Ort
Strietzel I + II
Sprache
EN
Speaker
Vortrag
How to run your LLM and how to benchmark it
Vortrag 1: Hosting AI in-house: The TNG GPU cluster story
Selbst gehostete Large Language Models (LLMs) ermöglichen es Unternehmen, KI tief in ihre Unternehmensprozesse zu integrieren und maximale Produktivitätssteigerungen zu erzielen, während gleichzeitig die Privatsphäre sensibler Geschäftsdaten gewahrt bleibt. Aber welche Anforderungen und Fallstricke gibt es, wenn Sie LLMs auf Ihrer eigenen Hardware betreiben möchten?
TNG besitzt und betreibt einen internen GPU-Cluster mit mehr als 50 GPUs, der KI-Dienste wie Chat, Coding Agents, Transkription und Bildgenerierung unterstützt und eine Vielzahl von TNG-internen Anwendungen bedient. Dieser Vortrag bietet einen Überblick darüber, wie Sie Ihr eigenes KI-Rechenzentrum betreiben können: Es werden die Herausforderungen beim Cluster-Management diskutiert, die beim Umstieg von einem einzelnen Rechner auf mehrere Knoten mit unterschiedlicher Hardware entstehen. Zudem wird auf die Hardwareanforderungen moderner LLMs eingegangen und es werden Leistungsoptimierungen skizziert, die notwendig sind, wenn Hunderte von Benutzerinnen und Benutzern gleichzeitig mit unterschiedlichen Lastmustern auf LLMs zugreifen.
Vortrag 2: Beyond the score: Your guide to benchmarking LLMs
Wie wählt man Large Language Models (LLMs) für den Einsatz auf einem GPU-Cluster mit Hunderten von Entwicklern und Entwicklerinnen aus? Neue Modelle werden regelmäßig mit beeindruckenden Benchmark-Ergebnissen beworben - doch was sagen diese Zahlen wirklich aus? In diesem Vortrag zeigen Lennard Schiefelbein und Jonathan du Mesnil de Rochemont, wie Benchmarks gestaltet werden können, die die tatsächliche Problemlösungsfähigkeit von LLMs im Alltag widerspiegeln.
Sie diskutieren Methoden zur Messung geschäftsrelevanter Fähigkeiten wie Codierung, Tool-Nutzung und die Leistung in agentischen Workflows. Nach einer Analyse typischer Schwachstellen populärer Benchmarks stellen sie verschiedene Evaluationsverfahren vor - darunter Tests mit Ground Truth, LLM-as-a-Judge sowie die Bewertung von LLM-generiertem Code. Zudem gehen sie auf häufige Fallstricke ein und erläutern, wie bereits kleine Änderungen bei Prompts oder Generierungsparametern Benchmark-Ergebnisse verzerren können. Abschließend präsentieren sie ein Entscheidungsframework, das Latenz, Kosten und Ausgabequalität systematisch gegeneinander abwägt, um die Auswahl des passenden Modells zu erleichtern.
So können Sie beworbene Leistungswerte besser einordnen – und LLMs mit dem Blick eines Profis evaluieren.
Zeit
11:30 Uhr
Ort
Röhrl / Geistdörfer
Sprache
EN
Speaker
Vortrag
Rise of the AI testers: Generating unit tests with AI agents
Wie lassen sich automatisch hochwertige Unit-Tests für Java-Code erstellen? In ihrem Vortrag zeigt das Team, wie sie dieses Ziel mithilfe von KI-Agenten erreichen, die von Large Language Models (LLMs) angetrieben werden. Das Tooling liefert hohe Code-Abdeckung und umfangreiche Tests der Geschäftslogik in verschiedenen Java-Projekten.
Sie verwenden eine Divide-and-Conquer-Strategie und versorgen das Modell mit dem notwendigen Kontext aus dem Repository, um die Codebasis zu verstehen. Zusätzlich ermöglicht eine Feedback-Schleife basierend auf containerisierter Testausführung dem System, die generierten Tests iterativ zu verbessern. Hier stellen große, komplexe Codebasen besondere Herausforderungen dar. Sie werden Strategien zur Bewältigung dieser Herausforderungen für die Testgenerierung demonstrieren. Schließlich werden sie die Ergebnisse verschiedener kommerzieller und Open-Source-LLMs vergleichen.
Zeit
11:30 Uhr
Ort
Kohlebunker I
Sprache
EN
Speaker
Vortrag
Sparse Models are the future: A deep dive into Mixture-of-Experts
Die Grenzen der Skalierbarkeit sind erreicht. Die Rechenleistung für KI-Training hat sich seit AlexNet um 10^21 erhöht, aber diese Modelle können nicht einfach unbegrenzt größer werden. Die leistungsstärksten Sprachmodelle von heute verwenden weniger als 10 % ihrer Parameter für ein bestimmtes Token und erzielen so erhebliche Einsparungen bei der Rechenleistung, während sie gleichzeitig eine hohe Qualität beibehalten. Die Effizienz beruht auf Mixture-of-Experts (MoE)-Architekturen, die verschiedene Eingaben an spezialisierte Expertennetzwerke weiterleiten, anstatt alle Parameter zu aktivieren, wodurch Rechenleistung eingespart wird. Ausgehend von den neuesten Modelldesign-Entscheidungen mit Billionen von Parametern wird in diesem Vortrag erläutert, warum spärliche Architekturen durch MoE den praktikabelsten Weg für eine effiziente KI-Skalierung in Produktionssystemen darstellen.
Zeit
11:30 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
Why I let AI agents write my code (and why your teams should too)
Vor sechs Monaten stand das Team KI-unterstützter Softwareentwicklung noch skeptisch gegenüber. Heute übernehmen KI-Agenten die Routinearbeiten und das Erstellen von Boilerplate-Code, während sie sich auf Architektur und Innovation konzentrieren - und ihre Produktivität hat sich grundlegend verändert.
Dies ist kein weiterer Vortrag, der dem KI-Hype folgt. Es ist ein ehrlicher Erfahrungsbericht über den Weg von Skeptikern zu Befürwortern – untermauert mit echten Daten und Live-Demonstrationen, die zeigen, wie agentenunterstütztes Coden den Arbeitsalltag transformiert. Sie zeigen ihre tatsächlichen Produktivitätsmessungen im Vorher-/Nachher-Vergleich und erklären, warum Teams, die früh auf diese Technologie setzen, deutliche Wettbewerbsvorteile in Liefergeschwindigkeit und Codequalität erzielen.
Anhand von Live-Coding-Sessions und realen Projektbeispielen werden sie demonstrieren, wie KI-Agenten bei Routineaufgaben glänzen, während sich Entwicklerinnen und Entwickler auf anspruchsvollere Problemstellungen mit höherem Mehrwert konzentrieren können. Sie gehen zudem auf die wesentlichen Hürden ein, die Unternehmen noch zögern lassen – etwa alte Codebasen, riesige Repositories oder begrenztes KI-Know-how – und präsentieren praxisbewährte Lösungen aus ihrer umfangreichen Produktionserfahrung mit unterschiedlichen Enterprise-Kunden.
Robotik
Zeit
9:00 Uhr
Ort
Dampfdom
Sprache
DE
Speaker
Vortrag
Autonomie, Robotik, KI - und der Mensch
In immer mehr Handlungskontexten sind Roboter in der Lage, eigenständig Aufgaben durchzuführen, sagt die Robotikforschung. Mithilfe Künstlicher Intelligenz können Roboter lernen, sich selbst an unterschiedliche Umgebungen und Handlungsherausforderungen anzupassen. Die Rede ist dann von künstlich intelligenten autonomen Robotern. Wie verhält sich dieses adaptive, technisch autonome Handeln eines Roboters zu der menschlichen Autonomie, die wir als ein konstitutives Element von Personalität ansehen?
In diesem Vortrag wird dieser Frage aus der Perspektive der Technikfolgenabschätzung nachgegangen. In welchen Handlungszusammenhängen ist es sinnvoll, autonome Roboter statt Menschen agieren zu lassen? Wann ist die Kollaboration zwischen Mensch und Roboter das Mittel der Wahl? Und in welcher Weise trifft in dieser Kooperation die menschliche auf die technische Autonomie? Die unterschiedlichen Grade der Autonomie beim autonomen Fahren können hier als ein Beispiel herangezogen werden.
Zeit
10:10 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
Humanoids driving Go-Karts
Roboter, die mit 30 km/h Go-Karts fahren, Besucherinnen und Besucher durch das Deutsche Museum führen und Fahrrad fahren - was könnte schon schiefgehen, wenn man Robotern beibringt, Maschinen zu bedienen, die für Menschen gebaut wurden? In diesem Vortrag wird untersucht, was funktioniert hat, was schief gegangen ist und welche Sicherheitsvorkehrungen erforderlich sind, wenn Humanoide mit Menschen zusammenarbeiten.
Zeit
14:55 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
Robots among us: Advances in AI for everyday androids
Die Robotik hält zunehmend Einzug in unseren Alltag, insbesondere durch humanoide Roboter. In diesem Vortrag wird eine Live-Demonstration des Android-Roboters Unitree G1 präsentiert und gezeigt, wie Fortschritte in den Bereichen KI, zunehmende Datenverfügbarkeit und Edge-Computing-Hardware Science-Fiction zur Realität werden lassen.
Begonnen wird mit einem Überblick über die Robotik und ihr Marktpotenzial. Anschließend wird das Robotertraining beleuchtet und gezeigt, wie integrierte Hardware und Software die Lücke zwischen Simulation und realem Einsatz schließen. Abschließend wird gezeigt, wie Vision-Language-Action-Modelle (VLA) eine sinnvolle Mensch-Roboter-Interaktion und zukünftige Anwendungen ermöglichen.
Werkzeuge & Methoden
Zeit
11:30 Uhr
Ort
Strietzel I + II
Sprache
EN
Speaker
Vortrag
Conversational, Generative, Contextual: A framework for AI-era product design
Das traditionelle Paradigma des User Experience (UX)-Designs ist im Zusammenhang mit KI nicht mehr anwendbar. Es ist nicht möglich, deterministische Benutzerabläufe zu entwerfen, wenn Systeme aus identischen Eingaben unterschiedliche Ergebnisse generieren. Die meisten KI-Fehler sind keine Modellfehler, sondern Kontextfehler.
Dieser Vortrag stellt eine Methodik für das Design KI-gestützter Produkte vor und berücksichtigt dabei vier wichtige Dimensionen: non-deterministische UX-Patterns, generative UI-Systeme, Context-Engineering-Workflows und Enterprise-Risikobewertung. Lernen Sie konkrete Methoden zum Testen unberechenbarer Systeme, zur Effektivitätsmessung ohne traditionelle Metriken und zur Kommunikation der Design-Intention, die über Erfolg oder Misserfolg von KI-Implementierungen entscheidet.
Der Vortrag vermittelt ein anwendbares Framework, Assessment-Tools und Design- & Kommunikationspatterns – jenseits des KI-Hypes hin zu systematischer Design-Praxis.
Zeit
13:45 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Education as a noisy signal: How to build robust predictions from grades using context data, econometrics, and AI
TNG Technology Consulting wirbt auf der Unternehmenswebsite stolz mit einem Akademikeranteil von 99,9 %. Doch was bringt akademische Bildung wirklich? Können Noten den späteren Erfolg am Arbeitsmarkt vorhersagen? Und sind Physik-Studierende tatsächlich die Schlauesten? Höchste Zeit für eine bildungsökonomische Betrachtung.
Der Vortrag beleuchtet den „Return" von Bildung und die prognostische Validität von Noten. Freuen Sie sich auf latente Fähigkeiten, Selektionseffekte, instrumentelle Variablen, jede Menge Rauschen, ein bisschen KI und den einen oder anderen Fun-Fact aus der Hochschullandschaft.