BEGIN:VCALENDAR
VERSION:2.0
CALSCALE:GREGORIAN
PRODID:adamgibbons/ics
METHOD:PUBLISH
X-PUBLISHED-TTL:PT1H
BEGIN:VEVENT
UID:m6ELHpA_b22kCg5cc_oZd
SUMMARY:Do LLMs have fluid intelligence? Lessons from competing in ARC AGI 
	2
DTSTAMP:20260513T113353Z
DTSTART:20260522T092500Z
DESCRIPTION:Beschreibung:\nDie Integration eines Python REPL (Read-Eval-Pri
	nt Loop) in KI-Modelle\, als Mittel zur "agentischen" Code-Ausführung\, er
	weist sich als Durchbruch für das Lösen komplexer Reasoning-Aufgaben. Neue
	 Erkenntnisse zeigen\, dass bereits der einfache Zugriff auf eine Laufzeit
	umgebung die Leistung von Modellen im ARC AGI 2-Benchmark drastisch steige
	rt - ohne aufwändiges Prompt-Engineering. Dieser Ansatz aktiviert ungenutz
	te Fähigkeiten zum dynamischen Problemlösen und könnte die Entwicklung all
	gemeiner KI neu definieren.\n\nDibya Chakravorty\, Bernhard Altaner und De
	bsankha Manik zeigen in ihrem Talk konkrete Leistungssprünge: Das Open-Sou
	rce-Modell GPT OSS 120B High verbessert sich mit REPL von 6\,11% auf 26\,3
	8%\, während Minimax M2.1 von 3\,06% auf 10\,56% klettert. Selbst die best
	en Modelle wie GPT 5.2 XHigh profitieren enorm (+13\,55%). Die Sprecher ze
	igen\, wie dieser Paradigmenwechsel nicht nur Benchmarks revolutioniert\, 
	sondern auch praktische Implikationen für die KI-Entwicklung hat.\n-------
	-------------------------\n\nSpeaker:\n- Dr. Bernhard Altaner\n- Dr. Debsa
	nkha Manik\n- Dibya Chakravorty\n\n--------------------------------\n\nVor
	tragsdetails:\n- Link zur Big Techday-Website: https://bigtechday.com/vort
	raege#aerGJ2c5AFUwlkgjzkvze\n
LOCATION:Kohlebunker I
DURATION:PT50M
END:VEVENT
END:VCALENDAR
