Kritikalität softwarebasierter Systeme

Forschungsgruppe 20

Allgegenwärtige Stealth-Technologien besitzen zum einen die Fähigkeit, menschliches Wissen zu erweitern und zu unterstützen und dadurch das Potenzial und die Produktivität von Menschen zu optimieren, zum anderen jedoch auch übersehene Verzerrungen und Fehler in den immer komplexeren, miteinander verbundenen Systemen zu verschlimmern. In dem Maße, in dem die Gesellschaft auf autonome, intelligente und kritische Softwaresysteme angewiesen ist, müssen neue Strategien gefunden werden, um nicht nur ihre bisherigen Qualitätsaspekte wie Sicherheit, Effizienz, Zuverlässigkeit und Sicherheit zu gewährleisten, sondern auch die Ethik der Mensch-Maschine-Interaktionen und die damit verbundenen soziopolitischen Implikationen zu berücksichtigen.

Neue Technologien

Wir müssen Technologien entwickeln, die sowohl hinsichtlich der technologischen Methoden als auch der kulturwissenschaftlichen Aspekte eine humanzentrierte Denkweise aufweisen, und zwar nicht voneinander getrennt, sondern aufeinander abgestimmt. In unserer Forschungsgruppe befassen wir uns mit der Kritikalität der Mensch-Maschine-Interaktion, wobei wir einen besonderen Schwerpunkt auf künstliche Intelligenz, maschinelles Lernen und datenwissenschaftlich entwickelte Werkzeuge und Methoden legen, die in hochriskanten Anwendungen eingesetzt werden, welche eine stabile Partnerschaft zwischen Betreiber und System erfordern.

Mensch-Maschine-Interaktion

Unser Ziel ist es, die Mensch-Maschine-Interaktion innerhalb des gesellschaftspolitischen Milieus zu dekonstruieren und sowohl die kritischen Aspekte als auch die unbestreitbaren Stärken und Chancen aufzuzeigen, die sie für die Zukunft bietet.

Als neu gegründete interdisziplinäre Gruppe befinden wir uns derzeit in einem kontinuierlichen Prozess der Erforschung neuer Methoden und der Verfeinerung unserer Forschungsthemen.

Zu unseren wichtigsten Interessenschwerpunkten zählen folgende Fragen:

  • Wie ist die Kritikalität von Softwaresystemen im Zusammenhang mit ihrer Nutzung, ihren Stakeholdern und den damit verbundenen Risiken zu definieren?
  • Welche Lehren können wir aus der Vergangenheit in Bezug auf Kritikalität und Systemversagen ziehen? Wie entwirft und baut man Systeme, die insbesondere im Hinblick auf menschliches Versagen ausfallsicher sind?
  • Welche kritischen Szenarien könnten sich in der Übergangsphase von der analogen zur digitalen Infrastruktur ergeben?
  • Welches sind die wichtigsten Aspekte, Bedrohungen und Vorteile des Einsatzes künstlicher Intelligenz (KI) in hochriskanten Anwendungen? Wie kann eine kritische KI mit der Welt interagieren und lernen, ohne dem Menschen Schaden zuzufügen?
  • Welche expliziten und impliziten Verzerrungen könnten in Daten enthalten sein, die für maschinell lernende Anwendungen verwendet werden? Wie kann man Datensätze und Algorithmen ethisch normalisieren, um sie an integrativeren und gerechteren Szenarien auszurichten?

Mitglieder der Forschungsgruppe

Card image cap

Prof. Dr.-Ing. Ina Schieferdecker

Principal Investigator

 

Card image cap

Dr. Diana Serbanescu

Postdoc und Forschungsgruppenleiterin

 

Card image cap

Veronika Kirgis

Forschungsgruppenassistentin

 

Card image cap

Martin Schüßler

Doktorand

 

Card image cap

Gunay Kazimzade

Doktorandin

 

Card image cap

Philipp Weiß

Studentische Hilfskraft

 

Card image cap

Milagros Miceli

Studentische Hilfskraft