Abstracts 2025
Wissenschaftliches Vortragsprogramm – Abstracts
Ort: WH G 001
- 14:00 Uhr: Franziska Hofmann: Das Spannungsfeld von Sicherheit und Datenschutz. Was ist das? Gibt es das? Und was hat das eigentlich mit mir als (zukünftige*n) Informatiker*in zu tun?
- Informationssicherheit und Datenschutz werden immer wichtiger. Angesichts fortschreitender technologischer Entwicklungen wie Künstlicher Intelligenz und dem Internet der Dinge stehen Informatikfachleute vor der Herausforderung, sowohl Datensicherheit als auch den Schutz individueller Rechte zu gewährleisten. Hier soll das Thema mit einer Erläuterung der Konzepte von Informationssicherheit und Datenschutz einschließlich deren Unterschiede und Gemeinsamkeiten eingeführt werden. Als bedeutendes Hilfsmittel wird das Standarddatenschutzmodell (SDM) als Möglichkeit zur Verbindung rechtlicher Vorgaben mit (IT-)technischen Maßnahmen vorgestellt. Das SDM zeigt mit seinen sog. Bausteinen, wie man Datenschutzanforderungen in (IT-)technische und organisatorische Maßnahmen übersetzt. Anhand praktischer Beispiele wird dargelegt, wie das Modell die Integration von (IT-)Sicherheits- und Datenschutzanforderungen erleichtert. Zudem werden aktuelle Herausforderungen hervorgehoben, mit denen Informatiker*innen konfrontiert sind. Ein besonderes Augenmerk liegt auf praktischen Herausforderungen und der Rolle von Informatikstudierenden, die durch Studium und aktuelles Wissen zu Lösungen beitragen können.
- 14:25 Uhr: Prof. Dr. Thomas Scheffler: Anonymisierung von Netzwerk-Traces: Herausforderungen und Chancen
Im Bereich der Netzwerksicherheit spielen Traces und Logs von Datenverbindungen eine wichtige Rolle in der Erkennung von abnormalen und möglicherweise böswilligen Aktivitäten. Intrusion-Detektion Systeme benutzen regelbasierte oder heuristische Verfahren, um Datenverkehr zu analysieren und Zugriffe auf Rechner und Daten nur berechtigten Akteuren zu gestatten. Zunehmend wird dabei auch an Methoden der künstlichen Intelligenz geforscht, was neue Perspektiven und Möglichkeiten eröffnet.Für die Forschung und Entwicklung effektiver Abwehrmechanismen ist der Zugriff auf Traces mit realem Netzwerkverkehr von großer Bedeutung. Nur so lassen sich realistische Bedrohungsszenarien analysieren und neue Sicherheitslösungen unter praxisnahen Bedingungen testen. Um Muster und Trends zu erkennen ist es notwendig Veränderungen im Netzwerkverkehr über längere Zeiträume zu beobachten. Die strengen Datenschutzregeln in Deutschland setzen solchen Aktivitäten allerdings enge Grenzen. Log-Dateien und aufgezeichnete Traces sind danach spätestens nach 90 Tagen zu löschen. Es existieren einige wenige öffentlich zugängliche Trace-Dateien, doch sind diese nicht aktuell genug, um für Forschungszwecke nutzbar zu sein.
Abhilfe könnte der Einsatz von Werkzeugen zur Anonymisierung von IP-Adressen in Log-Dateien schaffen. Bisher fehlt es jedoch an praktischer Erfahrung im Hinblick auf die technische Umsetzung und die tatsächliche Eignung solcher Anonymisierungsverfahren – sowohl aus technischer als auch aus rechtlicher Perspektive.
- 14:50 Uhr: Mevre Tunca: Privacy by Design
Privacy by Design (PbD) ist ein fundamentales Prinzip der IT-Sicherheit, dessen Bedeutung insbesondere in digitalen Lieferketten wächst. Dies liegt unter anderem daran, dass moderne IT-Landschaften aus verteilten Anwendungen bestehen. Die Sicherheit einzelner Komponenten garantiert nicht automatisch den Schutz entlang der gesamten Lieferkette. Obwohl PbD in der DSGVO gesetzlich verankert ist, fehlt eine einheitliche Operationalisierung und Vergleichbarkeit zwischen Organisationen. Da PbD in der Praxis oft abstrakt bleibt, ist die Anwendbarkeit und Vergleichbarkeit begrenzt, daher wird untersucht, wie bestehende IT-Sicherheitsstandards genutzt werden können, um eine systematische Bewertung der PbD-Umsetzung in Lieferketten zu ermöglichen. Auf Basis qualitativer und quantitativer empirischer Forschung sind die zentrale Herausforderungen bereits identifiziert, darunter die uneinheitliche Interpretation regulatorischer Vorgaben und die fehlende Standardisierung bei der Evaluierung von Maßnahmen. Ein möglicher Lösungsansatz ist die Entwicklung einer Plattform zur strukturierten Anforderungsableitung und Bewertung der Lieferkette anhand etablierter Sicherheitsstandards. Der Beitrag präsentiert aktuelle Forschungsergebnisse, konzeptionelle Lösungsansätze und offene Fragen.
- 15:40 Uhr: Prof. Dr. Orhan Konak: Overcoming Data Scarcity in Human Activity Recognition
- Tragbare Sensorsysteme (Wearables) gewinnen zunehmend an Bedeutung, nicht nur durch sinkende Kosten und steigende Verfügbarkeit, sondern auch durch den Einsatz in sensiblen Bereichen wie der Gesundheitsversorgung. Maschinelles Lernen zur automatisierten Erkennung menschlicher Aktivitäten (Human Activity Recognition, HAR) kann hier eine Schlüsselrolle spielen, um z.B. Pflegeprozesse zu verbessern und patientenbezogene Daten transparenter und sicherer nutzbar zu machen. Ein zentrales Problem ist jedoch der Mangel an ausreichend annotierten Trainingsdaten, gerade bei datenschutzkritischen Szenarien. In diesem Beitrag stelle ich ein Verfahren vor, das synthetische Sensordaten mittels 3D-Engines und Generative Adversarial Networks (GANs) erzeugt. Diese Daten zeigen vielversprechende Ergebnisse in der Klassifikation einfacher Aktivitäten, mit F1-Verbesserungen von bis zu 8,4% gegenüber etablierten Verfahren. Gleichzeitig beleuchtet die Studie Grenzen bei komplexen Tätigkeiten. Der Ansatz demonstriert, wie synthetisch erzeugte Daten zur Lösung datenethischer Herausforderungen beitragen können, etwa durch die Reduktion personenbezogener Aufzeichnungen in sensiblen Anwendungsbereichen.
- 16:05 Uhr: Mario Koddenbrock: AI Stress Test with DeepBench: How Safe Are Foundation Models in Practice?
Vortrainierte Foundation Models wie CLIP oder LLaVA zeigen beeindruckende Zero-Shot-Ergebnisse – doch wie zuverlässig sind sie, wenn sie in der Praxis eingesetzt werden, etwa im industriellen Umfeld oder in der medizinischen Bildgebung? Im Rahmen des IfaF -Projekts TrustAdHocAI (TAHAI) haben wir uns mit genau dieser Frage beschäftigt und DeepBench entwickelt – ein offenes Framework zur Robustheitsanalyse von KI-Modellen unter realistischen, anwendungsspezifischen Bedingungen. DeepBench ist modellagnostisch einsetzbar, doch unser Fokus lag auf Vision- und Vision-Language-Modellen, wie sie etwa in der medizinischen Bildgebung, industriellen Qualitätskontrolle oder Satellitenanalyse verwendet werden. Ein zentrales Element von DeepBench ist ein Large-Language-Model-gesteuerter Prozess, der kontextrelevante Störeinflüsse identifiziert und realistische Testbedingungen simuliert. So lässt sich die Robustheit genau unter den Bedingungen prüfen, die für die jeweilige Anwendung entscheidend sind. Umfangreiche Benchmarks in sechs realen Szenarien zeigen: Kein Modell ist universell robust - ausschlaggebend sind sowohl die Modellarchitektur als auch die Auswahl und Kuratierung der Trainingsdaten.
Der Vortrag gibt Einblicke in das Framework, unsere Ergebnisse und was sie für den praktischen KI-Einsatz bedeuten – mit Fokus auf Sicherheit, Transparenz und Vertrauen in KI-Systeme.- 16:30 Uhr: Mareike Lisker: Is Digital Literacy Possible? Data Tracking and How Individuals Are Made Responsible on the Internet
Seit 25 Jahren kursiert die Forderung nach digitaler Mündigkeit durch den netzpolitischen Diskurs. Durch die Forderung werden wir als individuelle Nutzer:innen des Internets unter anderem dazu angehalten, Kontrolle über unsere eigenen Daten auszuüben. Die Kontrolle von Daten ist wesentlich, denn unbewusste automatisierte Diskriminierung oder bewusster Machtmissbrauch durch datenbasierte Machine Learning-Systeme sind drängende Probleme. Doch sind ‚unsere‘ Daten Teil einer hochkomplexen Marktinfrastruktur, die das Internet durchzieht und die Profitinteressen großer Plattformen befriedigt. Außerdem herrschen Netzwerkeffekte sowie unsichtbare Zwänge in der Aufmerksamkeitsökonomie. Ich möchte in diesem Vortrag deshalb dafür argumentieren, dass wir nicht in der Lage dazu sind, der Verantwortung, Kontrolle über unsere eigenen Daten zu haben, gerecht zu werden. Dass wir dennoch in die Pflicht genommen werden, ist ein Fall von Responsibilisierung – einem Regierungswerkzeug des Neoliberalismus.