
Big Techday 25
24. Oktober 2025
Vorträge
Hier finden Sie die Vorträge unseres Big Techday 25, der am 24. Oktober 2025 in der Motorworld München stattgefunden hat.
Die Vorträge unserer vergangenen Big Techdays finden Sie in unserem Rückblick. Sofern wir die Erlaubnis der Speaker erhalten haben, sind die Aufzeichnungen und die Präsentationsfolien in den Details des jeweiligen Vortrags hinterlegt.
Themen der Vorträge
Abenteuer
Zeit
19:00 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
Beyond the summit - Inspiration from fourteen peaks
Wie kann das Erklimmen aller 14 höchsten Gipfel über eine rein körperliche Leistung hinausgehen und zu einer Quelle der Inspiration werden?
Nima Rinji Sherpa erzählt über seinem Weg von seinem Heimatdorf Makalu bis hin zum jüngsten Menschen, der auf allen 14 Achttausendern der Welt stand. Er spricht über seine ganzheitliche Philosophie, die Anpassungsfähigkeit, mentale Stärke und eine symbiotischen Respekt vor der Natur betont und damit gängige Ansätze des Bergsteigens in Frage stellt. Anhand von persönlichen Anekdoten und Einblicken aus seinen Dokumentationen zeigt Nima, wie sich aus Tragödien Widerstandskraft entwickeln lässt und ermutigt so eine neue Generation dazu, jenseits der Gipfel nach Sinn und Erfüllung zu streben.
Architektur & Design
Zeit
9:00 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Secure bare-metal Kubernetes at idgard: Zero internal access to customer data by design
Idgard, eine Security-First-Dateifreigabeanwendung, stellt strenge betriebliche Anforderungen, um die Privatsphäre der Nutzerdaten zu gewährleisten. Insbesondere das zentrale Versprechen – kein unautorisierter Zugriff, selbst durch Entwickler oder Betriebspersonal – schränkt die betrieblichen Möglichkeiten erheblich ein.
Dieser Vortrag beleuchtet die damit verbundenen Herausforderungen und technischen Feinheiten beim Aufbau einer sicheren Bare-Metal-Kubernetes-Umgebung, die diesen Anforderungen gerecht wird. Behandelt werden unter anderem Network-Bootstrap, unveränderliche Cluster-Setups, mehrschichtige Zugriffskontrollen sowie robuste Monitoring- und Alarmierungsmechanismen.
Cloud
Zeit
10:10 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
(Nur vor Ort) Dirty trenches & clean code - What to learn from a telco’s Cloud-first strategy
OXG wurde 2023 als Tochtergesellschaft von Vodafone gegründet, um ein Glasfaser-Telekommunikationsunternehmen aufzubauen – und das so „sauber“ wie möglich. Dabei setzt OXG beim Verlegen der Glasfaserkabel konsequent auf einen modernen Cloud-First-Ansatz im Tech-Stack.
Und es hat funktioniert – größtenteils. Heute setzt OXG eine Mischung aus Eigenentwicklung und Drittanbieterkomponenten ein. Die Bausteine, welche die proprietäre Geschäftslogik zusammenhalten, sind zwar schick, serverlos, Cloud-nativ und für ein One-Click-Deployment voll automatisiert. Doch wie jedes andere Unternehmen ist auch OXG an die Realität gebunden.
Die Einrichtung einiger weniger „nicht-ganz-so-Cloud-nativer“ Anwendungen fühlte sich dabei an, als würde man einen Dinosaurier in ein Raumschiff schmuggeln – inklusive fest codierter Passwörter, teurem Extragepäck, fragwürdigen Sicherheitsbewertungen und einem Boarding-Prozess, der drei Deployment-Pipelines und reichlich Kaffee erforderte.
Dieser Vortrag gibt einen Überblick über die Höhen und Tiefen der vergangenen zwei Jahre – und verrät, warum ein Fitnessstudio-Abo im Grunde dasselbe ist wie ein Backup- & Recovery-Plan.
Zeit
11:30 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
BMW's software development dashboard - built with AWS Glue & QuickSight
Ihr Data Lake ist gefüllt - doch wie extrahieren Sie greifbare Ergebnisse? Am Beispiel des BMW Software Development Dashboards zeigen Ulf Richter und Péter Kaposvári Schritt für Schritt, wie Sie ein serverless Dashboard in AWS mit Glue und QuickSight entwickeln können. Die Lösung bietet Kosteneffizienz und hohe Skalierbarkeit bei gleichzeitig geringem Betriebsaufwand.
Zeit
14:55 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
From field to cloud
Die digitale Planung ist aus modernen Agrarbetrieben nicht mehr wegzudenken. Von satellitengestützter Düngeplanung bis zu Echtzeitdaten vom Traktor: Die Landwirtschaft wird durch Daten neu definiert. Die Herausforderung liegt darin, aus diesen Informationen greifbare Handlungsempfehlungen zu gewinnen.
Die digitale Farming-Plattform schlägt mithilfe einer Architektur von Microfrontends und Microservices die Brücke zwischen Feld und Büro. Der Vortrag zeigt, wie Web- und Mobile-Apps Landwirte, Händler und Techniker mit integrierten Lösungen und durchdachter User Experience unterstützen. Dabei wird auf die technischen Herausforderungen eingegangen, die das Team im Bezug auf Themen wie Konsistenz, Komplexität und teamübergreifender Kommunikation meistern konnte. Seien Sie dabei und erfahren Sie wie Yara Farming Solutions Europe die digitale Landwirtschaft transformiert.
Computer & Games
Zeit
14:55 Uhr
Ort
Kohlebunker
Sprache
EN
Vortrag
How to make games in 2025 - How AI and emerging technologies are transforming game development
In der Gaming-Industrie wurden jahrzehntelang Witze gemacht, wenn jemand das Thema KI erwähnte. Nicht aus Überheblichkeit, sondern aus Frust. Zu oft wurde das Thema diskutiert, erforscht und wieder verworfen, ohne dass es wirklich ernst genommen wurde. Es brauchte erst einen ehemaligen Spieleentwickler wie Demis Hassabis, um der Welt zu zeigen, was KI tatsächlich leisten kann - zum Beispiel, wie man in Go gewinnt. 2025 leben wir nun aber in einer völlig anderen Welt. Was bedeutet das heute für Spieleentwickler? Welche neuen Tools und Ansätze entstehen, was setzen wir bereits ein, und welche Chancen eröffnen sich? Und vor allem: Wie können wir gemeinsam diese neue Ära der Spieleentwicklung gestalten?
Zeit
13:45 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
enigame - The joy of solving tricky tasks: Europe's largest code and cipher cracking contest
Menschen sind geborene Problemlöser. Der Drang, Geheimnisse zu entdecken, Rätsel zu lösen und Dingen auf den Grund zu gehen, steckt uns in der Natur. Viele von uns verdienen damit sogar ihren Lebensunterhalt: Fachleute in MINT-Bereichen gehen täglich komplexe Probleme an. Doch wodurch wird ein Problem zum spannenden Rätsel statt zur lästigen Pflichtaufgabe? In diesem Vortrag wird der Kern der täglichen Arbeit von enigame beleuchtet - Codes, Chiffren, Muster, Logik und Kreativität - durch die Brille von Rätseljagden.
Anhand von Europas größter Rätseljagd, enigame, werden die Kernelemente guter Puzzle-Designs gezeigt, die Menschen wirklich fesseln. Dabei wird deutlich: Durchdachte Rätsel fördern nicht nur Kreativität und geistige Flexibilität, sondern schaffen auch ein starkes Gefühl von Gemeinschaft und Zusammenarbeit.
Hardware & Reality Hacking
Zeit
16:15 Uhr
Ort
Dampfdom
Sprache
DE
Speaker
Vortrag
(Nur vor Ort) Elektrofahrzeug CONCEPT AMG GT XX - in acht Tagen um die Welt
Elektromobilität stellt Ingenieurinnen und Ingenieure vor besondere Herausforderungen - vor allem, wenn es um hohe Effizienz bei hohen Geschwindigkeiten und sehr schnelles Laden geht. Am Beispiel des Concept Mercedes-AMG GT XX zeigt der Vortrag, wie technische Innovation, Teamgeist und zielgerichtete Methodik neue Maßstäbe setzen. Das Fahrzeug hat im Sommer 2025 in Süditalien gleich 25 Rekorde aufgestellt und damit eindrucksvoll bewiesen, welches Potenzial in der nächsten Generation von Elektrofahrzeugen steckt. Unter anderem hat das Fahrzeug eine Distanz von 40.075 km in unter 8 Tagen zurückgelegt und damit auch im Thema Langstrecke den Herausforderungen Stand gehalten. Der Vortrag soll auch zeigen, wie Teamwork zwischen Formel 1, Forschungsabteilungen und Marketing sehr zielgerichtet funktionieren kann.
Zeit
9:00 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
From concept to launch: Challenges in rocket design
Bei der European Rocketry Challenge 2025 in Portugal trat BME Suborbitals als erstes ungarisches Team mit einer Rakete an, die von einem selbstentwickelten Feststoffmotor angetrieben wird. Die Rakete - Aurora, unterstützt von evosoft - stellt das bislang anspruchsvollste Projekt des Teams dar. Sie kombiniert eine neu entwickelte interne Rahmenstruktur, ein verteiltes Avioniksystem sowie ein aktiv steuerbares Luftbremssystem. Konzipiert für den Transport einer 3U‑CubeSat‑Nutzlast und eines CanSat auf eine Flughöhe von rund 3000 Metern, ist Aurora das Ergebnis mehrjähriger studentischer Entwicklungsarbeit, Pioniergeist und konsequenter Teamleistung.
In diesem Vortrag gibt das Team Einblicke in seinen Weg zur EuRoC, beleuchtet die größten Herausforderungen und wichtigsten Meilensteine von den ersten Konzeptideen bis hin zum finalen Start und bietet die Möglichkeit, Aurora aus nächster Nähe zu erleben.
Zeit
14:55 Uhr
Ort
Kleine Lokhalle
Sprache
DE
Speaker
Vortrag
Ready for Liftoff: KI, Resilienz und der Wille zum Erfolg
Künstliche Intelligenz beschleunigt Entwicklungszyklen und eröffnet neue Wege selbst für hochkomplexe Systeme wie Raketentriebwerke. Doch wer einmal einen Raketenstart hautnah erlebt hat, weiß: Erfolg entsteht nicht allein durch perfekte Planung oder Algorithmen. Ein Sensorfehler, eine plötzliche Wetteränderung oder eine unerwartete Systemreaktion – in Sekunden kann alles kippen. In solchen Momenten zählt nicht das Offensichtliche, sondern die Fähigkeit, unkonventionelle Lösungen zu finden, Pläne flexibel anzupassen und trotzdem entschlossen zu handeln. Genau hier liegt der entscheidende Unterschied, der den Menschen trotz immer leistungsfähigerer KI auszeichnet: Durchhaltevermögen, Resilienz und der unbedingte Wille zum Erfolg. Dieses „besondere Etwas“ ist für Unternehmen von unschätzbarem Wert – und es wird auch in Zukunft Bestand haben. Der Vortrag macht diesen Unterschied erlebbar, gestützt durch direkte Einblicke in den Entwicklungszyklus einer studentisch gebauten Rakete bis hin zum Start.
KI - Forschung
Zeit
9:00 Uhr
Ort
Kohlebunker
Sprache
EN
Vortrag
ARTIPHISHELL Intelligence: LLM-driven bug hunting & patching in the AI Cyber Challenge
Die „Grand Challenges“ der DARPA haben immer wieder die Grenzen autonomer Systeme verschoben. Die AI Cyber Challenge (AIxCC) stellt die neueste Grenze dar: Vollautonome Cyber Reasoning Systems (CRS), die in der Lage sind, Schwachstellen in kritischer Open-Source-Software ohne menschliches Eingreifen zu entdecken, zu analysieren und zu beheben. Bei der AIxCC ging es um eine entscheidende Frage: Wie können die modernen Fortschritte in der KI am effektivsten genutzt werden, um sicherheitsrelevante Open-Source-Software unserer digitalen Infrastruktur zu schützen? Die Ergebnisse übertrafen die Erwartungen: Die autonomen CRS haben nicht nur künstlich vom Veranstalter eingefügte Schwachstellen identifiziert und behoben, sondern gemeinsam 18 bislang unbekannte Sicherheitslücken in weit verbreiteter Open-Source-Software entdeckt und elf davon erfolgreich gepatcht.
Als Co-Kapitän des Teams Shellphish wird Lukas Patrick Dresel seine Erfahrungen in der AIxCC und den Aufbau ihres CRS ARTIPHISHELL vorstellen. Der Vortrag beleuchtet die Ziele des Wettbewerbs, dessen sich entwickelnden Rahmen und wie sich einige der anspruchsvollsten Aufgaben in der Softwaresicherheit automatisieren lassen. Zentral ist dabei die bemerkenswerte Entwicklung von LLMs: Von einfachen Autovervollständigungswerkzeugen zu Beginn bis hin zu unverzichtbaren logischen Motoren, die in der Endphase komplexe Multi-Agenten-Systeme in jeder Pipeline-Stufe antreiben. In ARTIPHISHELL setzte das Team LLMs für Aufgaben ein, die von der automatischen Schwachstellenerkennung mittels Grammatik-bewusstem Fuzzing bis zur präzisen Behebung komplexer Fehler reichten - Probleme, die zuvor menschliche Eingriffe erforderten. Allerdings waren LLMs nur ein Teil der Lösung. Lukas Patrick Dresel wird auch erläutern, wie moderne Programmanalysetechnikenentscheidend dazu beigetragen haben, den Output der LLMs in der Realität zu verankern, Halluzinationen zu vermeiden und den maximalen Nutzen aus den Output zu ziehen. Beim Vergleich verschiedener Teamansätze werden sowohl verbreitete Techniken als auch spezialisiertere Vorgehensweisen betrachtet.
Abschließend werden die Wettbewerbsergebnisse und die wichtigsten Erkenntnisse über die Stärken und Schwächen von LLMs im Bereich Softwaresicherheit vorgestellt. Mit Blick in die Zukunft wird Dresel zudem auf vielversprechende neue Wege eingehen, wie LLMs bereits erfolgreich beim Auffinden, Veranschaulichen und Beheben von Sicherheitslücken in Software eingesetzt werden können.
Zeit
11:30 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
Beyond ChatBots: Unleashing human creativity with cognitive cartography, glass-box self-recoding AI, and visual data science in Mantis
Dieser Vortrag stellt Mantis vor, eine interaktive Mensch-KI-Plattform, die über herkömmliche Chatbot-Frameworks hinausgeht, die Menschen oft aus kreativen Prozessen ausschließen und zu stark vereinfachte Antworten liefern. Mantis macht Komplexität sichtbar und verbindet natürliche Sprache, strukturierte Daten und visuelles Denken in einer gemeinsamen Arbeitsumgebung für Erkundung und Entdeckung. Mantis erstellt Bedeutungskarten – semantische Landschaften, die Ideen, Dokumente, Mitarbeiter, Moleküle, Gene und Patienten darstellen – und ermöglicht es Benutzerinnen und Benutzern, innerhalb interaktiver Arbeitsabläufe zu navigieren, zu clustern, zu kommentieren und sich weiterentwickelnde KI-Agenten zu steuern. Es wird in verschiedenen Bereichen angewendet, verwandelt Hypothesen in iterative datenwissenschaftliche Arbeitsabläufe, bildet den Verlauf von Patienten von den Symptomen bis zu den Ergebnissen im Gesundheitswesen ab und ermöglicht es, Medikamenten durch Struktur-Funktions-Analysen in der Biologie zu entdecken. Jedes Tool in Mantis ist ein autonomer denkender Agent, der von einem Orchestrator koordiniert wird, der die Ziele der Benutzerinnen und Benutzer interpretiert und Aufgaben verwaltet. Die Plattform versteht ihre eigene Architektur und kann neuen Code generieren, um sich selbst zu erweitern. Mantis ist kein Chatbot. Es ist ein neues Paradigma dafür, wie sich Menschen und Maschinen durch kollaboratives Kreieren gemeinsam weiterentwickeln.
Zeit
14:55 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
Chemputation
Die digitale Chemie entwickelt sich zu einer neuen Disziplin an der Schnittstelle zwischen Chemie, Informatik und Automatisierung. An der Universität Glasgow und bei Chemify Ltd wurde das Konzept der Chemputation entwickelt: die Programmierung von Chemie unter Verwendung einer universellen chemischen Sprache, Robotik und digitaler Infrastruktur, um die Synthese reproduzierbar, skalierbar und deterministisch zu machen. Dieses Framework schließt die Lücke zwischen algorithmischem Design und physikalischer Umsetzung und ermöglicht es, chemische Prozesse als Code zu kodieren und auf Roboterplattformen auszuführen. Die erste groß angelegte Umsetzung dieser Vision ist Chemifarm von Chemify in Glasgow, eine vollautomatisierte Anlage, die KI-gesteuertes Moleküldesign mit Robotik im industriellen Maßstab und einer wachsenden digitalen Reaktionsbibliothek integriert. Indem Theorie, Software und Laborhardware vereinheitlicht werden, bietet Chemputation eine reproduzierbare Grundlage, um Entdeckungen in den Bereichen Wirkstoffdesign, Materialwissenschaften und komplexe chemische Systeme zu beschleunigen, und öffnet gleichzeitig die Tür zu einer dezentralisierten und außerirdischen chemischen Produktion. Chemputation ist die Zukunft der Chemie sowohl in der Wissenschaft als auch in der Industrie.
Zeit
16:15 Uhr
Ort
Strietzel
Sprache
EN
Speaker
Vortrag
Chess AI: How to explain a chess game with AI? - From traditional engine analysis to LLM agents
Brettspiele wie Schach und Go waren schon immer eine Inspirationsquelle für Forschung und Experimente mit neuen KI-Methoden. Heute sind Schachengines wie Stockfish oder AlphaZero selbst den weltbesten menschlichen Spielerinnen und Spielern weit überlegen. Während reine Spielstärke für den Durchschnittsspieler oder die Durchschnittsspielerin kaum relevant ist, bleibt der Bildungsaspekt weitgehend unerforscht.
Die hier vorgestellte Schach-KI kombiniert mehrere Ansätze, um Schachwissen zugänglicher zu machen:
- Die Bewertungen moderner Schach-Engines werden über Tool Calls einem LLM-basierten Agenten zugänglich gemacht und von einem Reasoning-LLM wie Grok-4 verarbeitet.
- Diese Tools ermöglichen tiefgehende Zuganalysen, einen Überblick über Positionen, Fehlerhinweise und eine Hervorhebung starker Züge.
- Die Kommentare des Agenten werden mittels ElevenLabs' Text-to-Speech-Service in vollständige Schachvideos transformiert.
Die Videos sind entweder als kurze Rätselformate oder als ausführliche Analysen verfügbar. Im letzten Monat erreichten die Uploads auf dem dazugehörigen YouTube-Kanal @TNGAIChess über 150.000 Aufrufe!
Zeit
10:10 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
Deeptech for depression: Mobile therapy with magnetic stimulation
Mext hat sich zum Ziel gesetzt, die Versorgung im Bereich psychischer Gesundheit zu revolutionieren, indem die Therapie von Depressionen überall und jederzeit zugänglich gemacht wird – unabhängig davon, wo und wie Menschen leben. Mithilfe mobiler, benutzerfreundlicher Geräte ermöglicht Mext Patientinnen und Patienten eine wirksame Neuromodulationsbehandlung außerhalb klinischer Einrichtungen, wodurch Hindernisse abgebaut werden und eine selbstbestimmte Therapie unterstützt wird. Parallel dazu werden maschinelles Lernen und KI eingesetzt, um wichtige Daten in Echtzeit zu sammeln und zu analysieren, mit dem Ziel, die Sicherheit zu gewährleisten und zu untersuchen, wie diese Erkenntnisse letztendlich in therapeutische Protokolle einfließen und diese verändern könnten. Zusammen bildet diese Integration von mobilen Gesundheitstechnologien und intelligenter Datenanalyse die Grundlage für stärker personalisierte, besser skalierbare und sicherere Behandlungen im Bereich der psychischen Gesundheit.
Zeit
10:10 Uhr
Ort
Strietzel
Sprache
EN
Speaker
Vortrag
Finally understand embeddings - And you will never have to search for the right emoji again
Embeddings sind die Grundlage dafür, wie Large Language Models die Welt verstehen. Wer sich darüber informiert, stößt jedoch schnell auf einschüchternde Begriffe wie Tensoren, Matrizen oder Multi-Head Attention. Doch das ist gar nicht nötig! In dem Talk erklären Elias Schecke und Dennis Schulz, wie Embeddings funktionieren und welche zentrale Rolle sie als Werkzeug im Natural Language Processing spielen. Zur Veranschaulichung wird eine Demo-Anwendung gezeigt, die zu jeder Chat-Nachricht ein passendes, stilvolles Emoji auswählt - damit auch Eltern künftig zum richtigen Symbol greifen. Sie erläutern, warum Sprache in hochdimensionale Vektoren übersetzt wird, und entwickeln darauf aufbauend eine Beispielanwendung für die Emojisuche. Dabei gehen sie auf Semantic Search, Finetuning und multimodale Embeddings ein, geben einen Überblick über gängige Benchmarks und zeigen, wie sich Anwendungen für semantische Suche erfolgreich skalieren lassen.
Zeit
10:10 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
How to get into the top ten model providers on the world's largest LLM aggregator platform
Henrik Klagges und Dr. Robert Dahlke erklären, wie ihre Erforschung von DeepSeeks Open-Weight-Mixture-of-Experts-Architektur zu einer neuen Methode der Konstruktion und Optimierung großer Sprachmodelle führte, genannt Assembly of Experts (AoE). Mithilfe von AoE erschufen sie R1T-Chimera und R1T2-Chimera – 671B-Child-Modelle, die aus mehreren DeepSeek-Elternmodellen abgeleitet sind. Der Konstruktionsprozess kann in weniger als einer Stunde durchgeführt werden und erfordert weder wochenlanges, teures Pretraining noch Finetuning auf großen Clustern. Dennoch wurden überraschende Ergebnisse erzielt: schnellere Inferenz, intelligentere Antworten und anpassbare „Persönlichkeiten“ der Sprachmodelle. Durch die aktive Zusammenarbeit mit der KI-Community über Hugging Face und X erlangten diese Forschung und die Modellveröffentlichungen virale Aufmerksamkeit: Die Chimera-Modellfamilie verarbeitet derzeit über 100 Milliarden Tokens pro Woche auf OpenRouter, dem weltweit größten Aggregator für Sprachmodelle. Sie erreichte den achten Platz in der OpenRouter-Gesamtmarktanteil-Rangliste nach Modellautoren. In der Kategorie KI-basiertes Roleplaying ist R1T2 sogar das zweitbeliebteste Modell mit über 10 % Marktanteil.
Zeit
10:10 Uhr
Ort
Kohlebunker
Sprache
EN
Vortrag
Proxima Fusion's ConStellaration challenge: Datasets to drive the future of fusion energy
Proxima Fusion, Europas am schnellsten wachsendes Fusionsunternehmen, arbeitet daran, das weltweit erste Stellarator-Fusionskraftwerk zu bauen, das nahezu unbegrenzt saubere Energie liefern soll. Um dieses Ziel zu erreichen, muss eines der komplexesten technischen Probleme der Welt gelöst werden: Die quasi-isodynamische (QI) Stellarator-Optimierung. Proxima ist überzeugt, dass maschinelles Lernen eine entscheidende Rolle bei der Lösung dieser Herausforderung spielt. Deshalb arbeitet das Unternehmen mit Hugging Face zusammen, um eine globale kollaborative Challenge zu starten, die die weltweite Machine-Learning-Community dazu einlädt, drei verschiedene Stellarator-Designprobleme zu lösen. Die Proxima-Ingenieure Santiago Cadena und Veronika Siska präsentieren hierfür ein offenes Datenset mit vielfältigen, QI-ähnlichen Stellarator-Plasmagrenzformen und führen drei Optimierungs-Benchmarks mit zunehmender Komplexität ein. Diese sollen zeigen, wie auf Basis von Proximas Datensatz trainierte Modelle die Einstiegshürde für Optimierungs- und Machine-Learning-Forscherinnen und -Forscher senken können, um sich am Stellarator-Design zu beteiligen und den interdisziplinären Fortschritt in Richtung einer kommerziellen Fusionsenergieversorgung zu beschleunigen.
Zeit
13:45 Uhr
Ort
Strietzel
Sprache
EN
Speaker
Vortrag
Tales from the machinery room - Customizing LLMs @ TNG AI research
"The Germans just Frankensteined DeepSeek's R1 and V3 into something called R1T Chimera".
Weit über diesen X-Post hinaus haben die von TNG veröffentlichten Modelle R1T und R1T2 Chimera mit einer täglichen Nutzung von mehr als 10 Milliarden Tokens über OpenRouter große Aufmerksamkeit erregt. Was für eine Art von „Frankensteining“ findet dort also statt? Wie kann ein kleines Software-Beratungsunternehmen wie TNG eigene Modelle entwickeln?
Bei TNG hat eine interne KI-Forschungsgruppe Experimente durchgeführt und Ergebnisse veröffentlicht, wobei der Schwerpunkt auf Mixture-of-Expert Large Language Models und Anpassungen der DeepSeek-Modellfamilie liegt. Zunächst hat das Team die Arbeitsweise von Experten innerhalb eines Modells unter dem Namen „Mixture of Tunable Experts“ manipuliert. Anschließend ging es mit der „Assembly-of-Experts”-Methode weiter, die dann zu den Chimera-Modellen geführt hat.
Dieser Vortrag soll einige technische Einblicke in die Arbeit des TNG KI-Forschungsteams geben. Dr. Fabian Klemm und David Reiss erinnern an die theoretischen Grundlagen und zeigen die wichtigsten Ergebnisse auf. Sie liefern technische Details dazu, wie die Dinge umgesetzt wurden, sowie einige Anekdoten über die Erfolge und Rückschläge auf diesem Weg.
KI - Lösungen
Zeit
14:55 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
(Nur vor Ort) AI-driven e-commerce: Scaling direct digital customer relationships
Hilti bringt KI ins Herz seiner E-Commerce Plattform, um den Nutzern effektivere, individualisierte Ergebnisse zu liefern. Aufbauend auf den bewährten direkten Beziehungen von Hilti zu seinen Kunden soll dies global skaliert werden. In diesem Vortrag präsentieren wir unsere ersten Echtzeit-Anwendungen von KI-Services, die live auf hilti.com sind: Re-ranking von Suchergebnissen mit CatBoost, angepasst an die Ziele der Nutzer, und die Empfehlung von weiteren Produkten zum Einkauf durch Graphen-basierte Neuronale Netzwerke (Graph Neural Networks, GNN). Wir werden außerdem erklären, welche AWS Infrastruktur gewählt wurde, um diese KI-Modelle sowohl schnell und effizient als auch robust und skalierbar ins Kundenerlebnis einzubinden.
Zeit
13:45 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
(Nur vor Ort) From data to decisions: Democratizing insight generation with Agentic AI in BMW’s Cloud Data Hub
Die Vision des Teams ist es, jedem BMW-Mitarbeitenden zu ermöglichen, eigenständig Erkenntnisse aus Daten zu gewinnen – und dabei jederzeit die Einhaltung von Governance-, Sicherheits- und Qualitätsstandards sicherzustellen. Um diese Vision in einer komplexen und unternehmensweiten Datenlandschaft Wirklichkeit werden zu lassen, war ein grundlegender Wandel in ihrem Ansatz zur Datenzugänglichkeit erforderlich. Begleiten Sie das Team auf ihrer Reise, in der sie zeigen, wie sie agentische KI eingesetzt haben, um die Datenanalyse im zentralen BMW Data Lake, dem Cloud Data Hub, zu demokratisieren. Sie stellen das Design einer Plattformlösung vor, die Big-Data-Analysen für alle Nutzenden zugänglich macht – auch für diejenigen ohne technische Vorkenntnisse – und dies über eine intuitive, KI-gestützte Benutzeroberfläche. Erfahren Sie, wie sie sich von statischen, SQL-basierten Workflows hin zu einem dynamischen Multi-Agenten-System entwickelt haben, das Datenerkennung, Abfrage, Visualisierung und Dokumentation über ein koordiniertes Netzwerk speziell entwickelter KI-Agenten orchestriert. Ihre Architektur ist darauf ausgelegt, in heterogenen Datenumgebungen zu bestehen – mit besonderem Fokus auf Erklärbarkeit, Sicherheit und Robustheit. In diesem Vortrag geben sie außerdem praxisnahe Einblicke in den Einsatz agentischer Systeme im großen Maßstab und teilen konkrete Handlungsempfehlungen, wie KI-gestützte Self-Service-Analytics im Unternehmensmaßstab erfolgreich umgesetzt werden können.
Zeit
16:15 Uhr
Ort
Rollprüfstand
Sprache
DE
Speaker
Vortrag
AI hits different - Ein Musikalbum aus dem Maschinenraum
Was passiert, wenn im Sabbatical kein Buch entsteht, sondern ein Musikalbum - mit künstlicher Intelligenz als Co-Produzentin? Der Vortrag demonstriert, wie sich mithilfe verschiedener KI-Tools innerhalb weniger Wochen ein vollständiges Album realisieren lässt - von den ersten Textzeilen über das Arrangement bis hin zum Mastering.
Die eingesetzten Sprachmodelle generieren Liedtexte und übernehmen dabei stilistische Merkmale durch gezieltes In-Context Learning mit eigenen Songtexten. Suno AI liefert erste musikalische Ideen, Splitter AI trennt Gesang, Schlagzeug und Instrumente, während Basic Pitch Audiosignale in MIDI-Daten umwandelt. Zusätzlich kommen MidJourney, Sora und KI-basierte Mastering-Engines zum Einsatz. Der Workflow kombiniert kreative Kontrolle mit effizienter Automatisierung - weit entfernt von einfachen One-Click-Ergebnissen.
Im Rahmen des Vortrags bietet Musikproduzent Ivo Moring (u. a. DJ Ötzis "Ein Stern") ergänzende Einblicke in die professionelle Musikproduktion im Mainstream-Umfeld. Er zeigt, wie etablierte Produktionsprozesse bei Major Labels funktionieren, welche Rolle KI bereits spielt und welche Herausforderungen sich daraus ergeben.
Der Vortrag liefert einen praxisnahen Einblick in Tools, Workflows und kreative Potenziale moderner KI-gestützter Musikproduktion - mit konkreten Learnings für Entwicklerinnen und Entwickler, Kreative und Tech-Enthusiasten.
Zeit
9:00 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
Hey, washing machine? Natural language meets appliance interaction at BSH
Was wäre, wenn Ihre Waschmaschine Fehlercodes erklären oder Tipps zur Fleckenentfernung geben könnte? Der LLM-gestützte Chatbot von BSH macht dies möglich - indem er Diagnosen, Pflegehinweise und Steuerungsfunktionen in einem natürlichen Dialog vereint. Hören Sie sich diesen Vortrag an und erfahren Sie mehr über das Warum (Bedürfnisse der Benutzerinnen und Benutzer) und das Wie (Technologien) hinter diesem innovativen Sprung in der Interaktion mit Haushaltsgeräten.
Zeit
16:15 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Leveraging confidential data: Implementing a scalable RAG solution for insurance and finance
Die Versicherungs- und die Finanzbranche sind in hohem Maße darauf angewiesen, strukturierte Erkenntnisse aus unstrukturierten Daten zu gewinnen und dabei strenge Datenschutzstandards einzuhalten. Bestimmte Transaktionen generieren große Mengen an Dokumenten, die kleine Expertenteams unter hohem Zeitdruck bearbeiten müssen - wodurch nicht der Dealflow, sondern die Teamkapazität zum größten Bottleneck wird. Munich Re Markets hat in Zusammenarbeit mit TNG und anderen Partnern eine spezialisierte RAG‑Anwendung (Retrieval Augmented Generation) entwickelt, um diesen Anforderungen gerecht zu werden. Diese Lösung ermöglicht die Abfrage komplexer Dokumente - einschließlich Tabellenextraktion - unter Verwendung der jeweils besten verfügbaren KI‑Modelle, die abhängig von den Vertraulichkeitsanforderungen ausgewählt werden.
Es wird der Weg zur Entwicklung dieses Workflows, einschließlich Dokumenten‑Parsing und ‑Indexierung, Retrieval und Antwortgenerierung in einer skalierbaren, mandantenfähigen Architektur, erläutert. Der Vortrag befasst sich mit Herausforderungen wie der Verarbeitung von Dokumenten und Anfragen in unterschiedlichen Sprachen, der Extraktion von Informationen aus Tabellen und der Möglichkeit für Benutzerinnen und Benutzer, anhand von Dokumentenkategorien zu suchen. Durch die Pflege von Testsuiten zur Qualitätsbewertung sowohl des Retrievals als auch der Antwortgenerierung wird eine konsistente Qualität sichergestellt, die durch den Einsatz neu entwickelter KI‑Techniken schrittweise verbessert wird. Zudem wird es Einblicke in das UX‑Design geben, das auf die Bedürfnisse nichttechnischer Benutzer ausgerichtet ist.
Zeit
13:45 Uhr
Ort
Dampfdom
Sprache
EN
Speaker
Vortrag
State of the Open LLMs in 2025
In diesem Vortrag wird Vaibhav Srivastav von Hugging Face die neuesten Trends vorstellen, welche die öffentlichen großen Sprachmodelle im Jahr 2025 prägen werden - von neuen Modellveröffentlichungen und Anwendungsmustern bis hin zu den Herausforderungen der Skalierung und Regulierung. Er wird beleuchten, wo Open Source floriert, welche Hürden noch bestehen und was Entwicklerinnen und Entwickler als Nächstes erwarten sollten.
Zeit
14:55 Uhr
Ort
Strietzel
Sprache
EN
Speaker
Vortrag
The next wave of disruption in engineering
Im Zeitalter der LLMs stellt sich zwangsläufig die Frage, wo wir hinsichtlich der Anwendbarkeit groß angelegter Deep-Learning-Modelle in wissenschaftlichen oder technischen Bereichen stehen. Oder etwas anders formuliert: Welche Art von Skalierung ist erforderlich, um neben Sprache und Bildverarbeitung auch andere Branchen zu revolutionieren? Die Diskussion beginnt mit einem Rückblick auf die jüngsten Erfolge in der Wetter- und Klimamodellierung, die zum ersten Grundlagenmodell für Erdsysteme geführt haben. Anschließend werden die Herausforderungen und konzeptionellen Hindernisse diskutiert, die für die nächste Welle der Disruption im Ingenieurwesen überwunden werden müssen.
Zeit
9:00 Uhr
Ort
Strietzel
Sprache
DE
Speaker
Vortrag
Von der Idee bis zum Rollout - der Betrieb von KI-Lösungen
Künstliche Intelligenz verspricht enormes Potenzial - doch der Weg von der ersten Idee bis hin zum produktiven Rollout und nachhaltigen Betrieb ist komplex. In diesem Vortrag teilt Mark Brinkmann seine Erfahrungen aus den letzten Jahren. Er zeigt, wie typische Erfolgsfaktoren und Stolpersteine entlang des gesamten Lebenszyklus - von der Konzeption über die Entwicklung bis zum Betrieb, aussehen. Ein besonderer Fokus liegt dabei auf STACKIT, der Cloud-Plattform, die als Fundament für Souveränität und Sicherheit dient.
KI - Tools
Zeit
9:00 Uhr
Ort
Röhrl / Geistdörfer
Sprache
EN
Speaker
Vortrag
Can AI see you? Your introduction to Computer Vision and GenAI
Dein Computer kann die visuelle Welt um dich herum verstehen - oder sogar eine neue erstellen. Von FaceID und Snapchat-Filtern bis hin zu Stable Diffusion ist visuelle KI Teil vieler alltäglicher Anwendungen geworden - und ihre Integration ist leichter denn je. Lass uns in die Welt der Computer Vision und visueller GenAI eintauchen! Die Sprecher erkunden, wie Deep-Learning-Techniken uns helfen, visuelle Informationen zu verarbeiten, zu analysieren und sogar zu verändern.
Dabei beginnen sie mit einer kurzen Einführung in die Verarbeitung von Bildern und Videos in Computern. Anschließend tauchen sie in die Welt der Convolutional Neural Networks (CNNs) ein und zeigen, wie unterschiedliche Architekturen dabei helfen, verschiedene Disziplinen der Computer Vision wie Klassifizierung, Segmentierung oder Posen-Erkennung zu meistern. Schließlich werden sie sich mit GenAI befassen und untersuchen, wie Diffusionsmodelle wie Stable Diffusion Bilder generieren und vervollständigen. Während des Vortrags werden theoretische Konzepte mit einer Vielzahl von Live-Demos und Praxisbeispielen veranschaulicht. Du willst sofort loslegen? Der Vortrag gibt dir einen Überblick über einige Open-Source-Frameworks wie MediaPipe oder YOLO, die du zu Hause ausprobieren kannst.
Zeit
11:30 Uhr
Ort
Kohlebunker
Sprache
EN
Speaker
Vortrag
Chutes.ai & the decentralisation hack: Rival AI Cloud titans with a handful of coders
Chutes, ein dezentrales KI-Inference-Netzwerk, beweist, dass eine präzise abgestimmte Incentive-Schicht Milliarden an Rechenzentrumsinvestitionen ersetzen kann. Unabhängige Betreiber konkurrieren darum GPU-Leistung beisteuern zu dürfen und werden für Zuverlässigkeit und Zielkonformität vergütet, indem tägliche Token-Emissionen algorithmisch über einen öffentlichen Score verteilt werden. Ergebnis: Branchenweit niedrigste Preise bei unerreichter Stabilität. Die Nutzung stieg rasant auf 150 Mrd. Tokens pro Tag bei 500 000+ Usern – Volumen auf OpenAI-Niveau. Der Vortrag seziert Wachstumskennzahlen, erklärt übertragbare ökonomische Designs und den gesellschaftlichen Nutzen gemeinschafts¬getragener KI: Von günstigerem Zugang in unterversorgten oder zensurgefährdeten Regionen bis zu Workloads, die bevorzugt Überschussstrom aus Erneuerbaren nutzen. Quintessenz: Wer die Anreize richtig setzt, kann globale KI-Unternehmen wie von selbst in atemberaubende Größen wachsen lassen.
Zeit
13:45 Uhr
Ort
Kohlebunker
Sprache
EN
Speaker
Vortrag
How to run your LLM and how to benchmark it
Vortrag 1: Hosting AI in-house: The TNG GPU cluster story
Selbst gehostete Large Language Models (LLMs) ermöglichen es Unternehmen, KI tief in ihre Unternehmensprozesse zu integrieren und maximale Produktivitätssteigerungen zu erzielen, während gleichzeitig die Privatsphäre sensibler Geschäftsdaten gewahrt bleibt. Aber welche Anforderungen und Fallstricke gibt es, wenn Sie LLMs auf Ihrer eigenen Hardware betreiben möchten?
TNG besitzt und betreibt einen internen GPU-Cluster mit mehr als 50 GPUs, der KI-Dienste wie Chat, Coding Agents, Transkription und Bildgenerierung unterstützt und eine Vielzahl von TNG-internen Anwendungen bedient. Dieser Vortrag bietet einen Überblick darüber, wie Sie Ihr eigenes KI-Rechenzentrum betreiben können: Es werden die Herausforderungen beim Cluster-Management diskutiert, die beim Umstieg von einem einzelnen Rechner auf mehrere Knoten mit unterschiedlicher Hardware entstehen. Zudem wird auf die Hardwareanforderungen moderner LLMs eingegangen und es werden Leistungsoptimierungen skizziert, die notwendig sind, wenn Hunderte von Benutzerinnen und Benutzern gleichzeitig mit unterschiedlichen Lastmustern auf LLMs zugreifen.
Vortrag 2: Beyond the score: Your guide to benchmarking LLMs
Wie wählt man Large Language Models (LLMs) für den Einsatz auf einem GPU-Cluster mit Hunderten von Entwicklern und Entwicklerinnen aus? Neue Modelle werden regelmäßig mit beeindruckenden Benchmark-Ergebnissen beworben - doch was sagen diese Zahlen wirklich aus? In diesem Vortrag zeigen Lennard Schiefelbein und Jonathan du Mesnil de Rochemont, wie Benchmarks gestaltet werden können, die die tatsächliche Problemlösungsfähigkeit von LLMs im Alltag widerspiegeln.
Sie diskutieren Methoden zur Messung geschäftsrelevanter Fähigkeiten wie Codierung, Tool-Nutzung und die Leistung in agentischen Workflows. Nach einer Analyse typischer Schwachstellen populärer Benchmarks stellen sie verschiedene Evaluationsverfahren vor - darunter Tests mit Ground Truth, LLM-as-a-Judge sowie die Bewertung von LLM-generiertem Code. Zudem gehen sie auf häufige Fallstricke ein und erläutern, wie bereits kleine Änderungen bei Prompts oder Generierungsparametern Benchmark-Ergebnisse verzerren können. Abschließend präsentieren sie ein Entscheidungsframework, das Latenz, Kosten und Ausgabequalität systematisch gegeneinander abwägt, um die Auswahl des passenden Modells zu erleichtern.
So können Sie beworbene Leistungswerte besser einordnen – und LLMs mit dem Blick eines Profis evaluieren.
Zeit
14:55 Uhr
Ort
Röhrl / Geistdörfer
Sprache
EN
Speaker
Vortrag
Reason and conquer: How AI agents automate the web
Was wäre, wenn ein digitaler Teamkollege die Welt des Webs verstehen, intelligente Entscheidungen treffen und dann autonom Ihre Aufgaben erledigen könnte – statt nur Vorschläge zu machen? Lernen Sie TWAIN kennen, TNGs Web AI Navigator: Ein Multi-Agenten-System, welches das Web liest, die Aufgaben versteht und autonom durch echte Workflows navigiert. Ob Jira-Tickets anlegen, Confluence-Seiten zusammenfassen, Reisen buchen oder E-Mails verarbeiten – TWAIN denkt mit und agiert eigenständig.
Maxim Stykow und Alexander zur Bonsen zeigen, wie sie TWAIN gebaut haben – und was sie dabei auf die harte Tour gelernt haben. Unter der Haube verbindet TWAIN Browser‑Automatisierung, Zugriff auf interne APIs und LLM‑Planung; das Model Context Protocol (MCP) ermöglicht ein Plug‑and‑Play‑Ökosystem von Tools mit quasi unendlicher Erweiterbarkeit.
Freuen Sie sich auf:
• Live‑Demos von Ende‑zu‑Ende‑Workflows, in denen TWAIN Aufgaben übernimmt, die sonst mehrere Tabs und viele Klicks kosten.
• Architektur‑Patterns für robuste KI‑Agenten im Alltag – nicht nur im Labor.
• Praxiserprobte Lösungen für die raue Realität: SSO‑/Authentifizierungs‑Flows, instabile DOMs, Kontext‑Limits, Rate Limits und Fehlerwiederherstellung.
• Einblicke, wie wir Privacy‑First‑Prinzipien verankern und gleichzeitig eine natürliche, dialogorientierte – und ein bisschen magische – User Experience bieten.
In dem Talk werden praktische Patterns, vermeidbare Stolperfallen und Checklisten vorgestellt, die zu Hause direkt genutzt werden können, um ähnliche Agenten in eigenen Umgebungen einzuführen. Der Talk richtet sich an Engineers, Architektinnen und Architekten und Product‑Leute, die KI von „Chat“ zu „Ship“ bringen wollen. Bringen Sie Ihre Fragen und Ihre kniffligsten Workflows mit.
Zeit
11:30 Uhr
Ort
Röhrl / Geistdörfer
Sprache
EN
Speaker
Vortrag
Rise of the AI testers: Generating unit and end-to-end tests with AI agents
Wie lassen sich automatisch hochwertige Tests für bestehende Codebasen generieren? In diesem Vortrag demonstrieren Dr. Marie Bieth und Dr. Michael Oberparleiter KI-gestützte Ansätze zum Erstellen von Unit- und Ende-zu-Ende-Tests mithilfe von Large Language Models (LLMs). Diese erreichen eine hohe Code-Abdeckung und umfassende Validierung der Geschäftslogik über vielfältige Projekte hinweg.
Unit-Test-Generierung: Das Team verwendet eine Divide-and-Conquer-Strategie, die Modellen gezielten Repository-Kontext für ein tiefes Verständnis der Codebasis bereitstellt. Eine containerisierte Feedback-Schleife ermöglicht iterative Test-Verfeinerung anhand der Ausführungsergebnisse und verbessert kontinuierlich die Testqualität. Im Vortrag vergleichen die Speaker die Leistung führender kommerzieller und Open-Weights-LLMs, um optimale Lösungen zu identifizieren.
Ende-zu-Ende-Test-Generierung: Ausgehend von einfachen Beschreibungen von Benutzerflows in natürlicher Sprache zeigen die Speaker, wie die Kombination spezialisierter LLMs für visuelles Anwendungsverständnis und Testcode-Generierung umfassende, wartbare Playwright-Testsuiten erzeugt.
Dieser Ansatz liefert Tests, die Best Practices folgen, reduziert den manuellen Testaufwand und erhält gleichzeitig Qualitätsstandards aufrecht.
Zeit
16:15 Uhr
Ort
Kohlebunker
Sprache
EN
Speaker
Vortrag
Sparse Models are the future: A deep dive into Mixture-of-Experts
Die Grenzen der Skalierbarkeit sind erreicht. Die Rechenleistung für KI-Training hat sich seit AlexNet um 10^21 erhöht, aber diese Modelle können nicht einfach unbegrenzt größer werden. Die leistungsstärksten Sprachmodelle von heute verwenden weniger als 10 % ihrer Parameter für ein bestimmtes Token und erzielen so erhebliche Einsparungen bei der Rechenleistung, während sie gleichzeitig eine hohe Qualität beibehalten. Die Effizienz beruht auf Mixture-of-Experts (MoE)-Architekturen, die verschiedene Eingaben an spezialisierte Expertennetzwerke weiterleiten, anstatt alle Parameter zu aktivieren, wodurch Rechenleistung eingespart wird. Ausgehend von den neuesten Modelldesign-Entscheidungen mit Billionen von Parametern wird in diesem Vortrag erläutert, warum spärliche Architekturen durch MoE den praktikabelsten Weg für eine effiziente KI-Skalierung in Produktionssystemen darstellen.
Zeit
11:30 Uhr
Ort
Rollprüfstand
Sprache
EN
Speaker
Vortrag
Why I let AI agents write my code (and why your teams should too)
Vor sechs Monaten stand das Team KI-unterstützter Softwareentwicklung noch skeptisch gegenüber. Heute übernehmen KI-Agenten die Routinearbeiten und das Erstellen von Boilerplate-Code, während sie sich auf Architektur und Innovation konzentrieren - und ihre Produktivität hat sich grundlegend verändert.
Dies ist kein weiterer Vortrag, der dem KI-Hype folgt. Es ist ein ehrlicher Erfahrungsbericht über den Weg von Skeptikern zu Befürwortern – untermauert mit echten Daten und Live-Demonstrationen, die zeigen, wie agentenunterstütztes Coden den Arbeitsalltag transformiert. Sie zeigen ihre tatsächlichen Produktivitätsmessungen im Vorher-/Nachher-Vergleich und erklären, warum Teams, die früh auf diese Technologie setzen, deutliche Wettbewerbsvorteile in Liefergeschwindigkeit und Codequalität erzielen.
Anhand von Live-Coding-Sessions und realen Projektbeispielen werden sie demonstrieren, wie KI-Agenten bei Routineaufgaben glänzen, während sich Entwicklerinnen und Entwickler auf anspruchsvollere Problemstellungen mit höherem Mehrwert konzentrieren können. Sie gehen zudem auf die wesentlichen Hürden ein, die Unternehmen noch zögern lassen – etwa alte Codebasen, riesige Repositories oder begrenztes KI-Know-how – und präsentieren praxisbewährte Lösungen aus ihrer umfangreichen Produktionserfahrung mit unterschiedlichen Enterprise-Kunden.
Robotik
Zeit
10:10 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
(Nur vor Ort) Robot Foundation Models
Physische Intelligenz, also die Fähigkeit von Maschinen, ihre Umgebung wahrzunehmen, zu verstehen und darin zu handeln, hat sich in den vergangenen zwei Jahren enorm weiterentwickelt. Aufbauend auf LLMs und Vision Language Models erlernen sogenannte Robot Foundation Models die Steuerung von Robotern anhand von Positions-, Bild- und Spracheingaben. In diesem Beitrag geben Valentin Bertle, Daniel Klingmann und Til Theunissen einen Überblick über die jüngsten Fortschritte und die Erkenntnisse, die sie aus der Anwendung solcher Robot Foundation Models auf industrielle Aufgaben gewonnen haben.
Zeit
9:00 Uhr
Ort
Dampfdom
Sprache
DE
Speaker
Vortrag
Autonomie, Robotik, KI - und der Mensch
In immer mehr Handlungskontexten sind Roboter in der Lage, eigenständig Aufgaben durchzuführen, sagt die Robotikforschung. Mithilfe Künstlicher Intelligenz können Roboter lernen, sich selbst an unterschiedliche Umgebungen und Handlungsherausforderungen anzupassen. Die Rede ist dann von künstlich intelligenten autonomen Robotern. Wie verhält sich dieses adaptive, technisch autonome Handeln eines Roboters zu der menschlichen Autonomie, die wir als ein konstitutives Element von Personalität ansehen?
In diesem Vortrag wird dieser Frage aus der Perspektive der Technikfolgenabschätzung nachgegangen. In welchen Handlungszusammenhängen ist es sinnvoll, autonome Roboter statt Menschen agieren zu lassen? Wann ist die Kollaboration zwischen Mensch und Roboter das Mittel der Wahl? Und in welcher Weise trifft in dieser Kooperation die menschliche auf die technische Autonomie? Die unterschiedlichen Grade der Autonomie beim autonomen Fahren können hier als ein Beispiel herangezogen werden.
Zeit
11:30 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
Humanoids driving go-karts
Roboter, die mit 30 km/h Go-Karts fahren, Besucherinnen und Besucher durch das Deutsche Museum führen und Fahrrad fahren - was könnte schon schiefgehen, wenn man Robotern beibringt, Maschinen zu bedienen, die für Menschen gebaut wurden? In diesem Vortrag wird untersucht, was funktioniert hat, was schief gegangen ist und welche Sicherheitsvorkehrungen erforderlich sind, wenn Humanoide mit Menschen zusammenarbeiten.
Zeit
16:15 Uhr
Ort
Kleine Lokhalle
Sprache
EN
Speaker
Vortrag
Robots among us: Advances in AI for everyday androids
Die Robotik hält zunehmend Einzug in unseren Alltag, insbesondere durch humanoide Roboter. In diesem Vortrag wird eine Live-Demonstration des Android-Roboters Unitree G1 präsentiert und gezeigt, wie Fortschritte in den Bereichen KI, zunehmende Datenverfügbarkeit und Edge-Computing-Hardware Science-Fiction zur Realität werden lassen.
Begonnen wird mit einem Überblick über die Robotik und ihr Marktpotenzial. Anschließend wird das Robotertraining beleuchtet und gezeigt, wie integrierte Hardware und Software die Lücke zwischen Simulation und realem Einsatz schließen. Abschließend wird gezeigt, wie Vision-Language-Action-Modelle (VLA) eine sinnvolle Mensch-Roboter-Interaktion und zukünftige Anwendungen ermöglichen.
Werkzeuge & Methoden
Zeit
11:30 Uhr
Ort
Strietzel
Sprache
EN
Speaker
Vortrag
Conversational, generative, contextual: A framework for AI-era product design
Das traditionelle Paradigma des User Experience (UX)-Designs ist im Zusammenhang mit KI nicht mehr anwendbar. Es ist nicht möglich, deterministische Benutzerabläufe zu entwerfen, wenn Systeme aus identischen Eingaben unterschiedliche Ergebnisse generieren. Die meisten KI-Fehler sind keine Modellfehler, sondern Kontextfehler.
Dieser Vortrag stellt eine Methodik für das Design KI-gestützter Produkte vor und berücksichtigt dabei vier wichtige Dimensionen: non-deterministische UX-Patterns, generative UI-Systeme, Context-Engineering-Workflows und Enterprise-Risikobewertung. Lernen Sie konkrete Methoden zum Testen unberechenbarer Systeme, zur Effektivitätsmessung ohne traditionelle Metriken und zur Kommunikation der Design-Intention, die über Erfolg oder Misserfolg von KI-Implementierungen entscheidet.
Der Vortrag vermittelt ein anwendbares Framework, Assessment-Tools und Design- & Kommunikationspatterns – jenseits des KI-Hypes hin zu systematischer Design-Praxis.
Zeit
13:45 Uhr
Ort
Stellwerk
Sprache
EN
Speaker
Vortrag
Education as a noisy signal: How to build robust predictions from grades using context data, econometrics, and AI
TNG Technology Consulting wirbt auf der Unternehmenswebsite stolz mit einem Akademikeranteil von 99,9 %. Doch was bringt akademische Bildung wirklich? Können Noten den späteren Erfolg am Arbeitsmarkt vorhersagen? Und sind Physik-Studierende tatsächlich die Schlauesten? Höchste Zeit für eine bildungsökonomische Betrachtung.
Der Vortrag beleuchtet den „Return" von Bildung und die prognostische Validität von Noten. Freuen Sie sich auf latente Fähigkeiten, Selektionseffekte, instrumentelle Variablen, jede Menge Rauschen, ein bisschen KI und den einen oder anderen Fun-Fact aus der Hochschullandschaft.





































































