BEGIN:VCALENDAR
VERSION:2.0
CALSCALE:GREGORIAN
PRODID:adamgibbons/ics
METHOD:PUBLISH
X-PUBLISHED-TTL:PT1H
BEGIN:VEVENT
UID:4h5qQubTZwOGbE7wm43Al
SUMMARY:Break me if you can: Evaluating safety robustness in AI models 
DTSTAMP:20260430T075052Z
DTSTART:20260522T114500Z
DESCRIPTION:Beschreibung:\nKI-Sicherheit wird oft als ethische Frage betrac
	htet\, doch für Unternehmen\, die echte Produkte ausliefern\, ist sie eben
	so ein Thema von Sicherheit\, Vertrauen und rechtlicher Integrität. Unsich
	eres Verhalten von Modellen kann Geheimnisse offenlegen\, Vorurteile verst
	ärken\, Missbrauch ermöglichen und erhebliche Reputationsrisiken erzeugen.
	 Dieser Vortrag vermittelt Entwicklerinnen\, Entwicklern und Produktteams 
	eine praxisnahe Einführung in KI-Ausrichtung und KI-Sicherheit - mit dem F
	okus darauf\, wie Systeme tatsächlich im Produktionseinsatz scheitern. \n\
	nDarauf aufbauend untersuchen Áron Erdelyi\, László Balázsik und Benjamin 
	Balogh\, wie sich das Feld des KI Red Teaming von manueller Erkundung hin 
	zu automatisierter adversarialer Evaluierung im großen Maßstab entwickelt 
	- einschließlich statischer Testsätze\, agentischer Jailbreaks und optimie
	rergetriebener Angriffsentdeckung. Abschließend präsentieren sie ein praxi
	sorientiertes Bedrohungsmodell\, konkrete Gegenmaßnahmen sowie einen Überb
	lick über die aktuelle Landschaft der KI-Sicherheit und bieten Entwickleri
	nnen und Entwicklern damit ein fundiertes Rahmenwerk zum Aufbau sichererer
	 und stabilerer KI-Systeme. \n--------------------------------\n\nSpeaker:
	\n- Laszlo Balazsik\n- Áron Erdelyi\n- Benjamin Balogh\n\n----------------
	----------------\n\nVortragsdetails:\n- Link zur Big Techday-Website: http
	s://bigtechday.com/vortraege#10nd7cyMtBmtuCJF3j45IX\n
LOCATION:Kleine Lokhalle
DURATION:PT50M
END:VEVENT
END:VCALENDAR
