拉斯维加斯赌城

图片
Pressemitteilung 39/25 - 11.04.2025

Ganzheitlicher Ansatz für verantwortungsvolle KI

Vier S?ulen sollen helfen, Künstliche Intelligenz vertrauenswürdig und nachhaltig zu machen

Von der ersten Idee über die Entwicklung bis hin zur Implementierung und Evaluation: Wie kann Künstliche Intelligenz über ihren gesamten Lebenszyklus hinweg verantwortungsvoll gestaltet werden? Welches Grundwissen und welche Haltung sollten Menschen mitbringen, die daran beteiligt sind? Das hat die Informatikerin Miriam Elia von der Universit?t Augsburg gemeinsam mit anderen Forschenden untersucht. Die Zusammenarbeit ist am Center for Responsible AI Technologies (CReAITec) angesiedelt gewesen. Das Ergebnis: ein ganzheitlicher Ansatz, der auf vier S?ulen basiert.

AdobeStock

Künstliche Intelligenz ist dabei, unterschiedliche Bereiche in Gesellschaft und Wirtschaft grundlegend zu ver?ndern. So vielversprechend die zukunftsweisenden M?glichkeiten auch sind, l?sst diese digitale Transformation auch Sorgen aufkommen – und Regulierungsbedarf, etwa in Form der KI-Verordnung der EU, die vergangenes Jahr in Kraft getreten ist und einen verantwortungsvollen Umgang mit KI f?rdern soll.

Interdisziplin?re Studie

Doch wie l?sst sich dies in der Praxis umsetzen? ?Wir müssen den menschlichen Einfluss entlang des gesamten Lebenszyklus einer KI berücksichtigen“, sagt Miriam Elia, wissenschaftliche Mitarbeiterin am Institut für Informatik der Universit?t Augsburg. Sie hat einen ganzheitlichen ethischen Ansatz zum verantwortungsvollen Umgang mit KI entwickelt.

Unterstützt wurde sie dabei von Paula Ziethmann (CReAITech), von Prof. Dr. Kerstin Schl?gl-Flierl vom Lehrstuhl für katholische Moraltheologie und von ihrem Doktorvater Prof. Dr. Bernhard Bauer, Professor für Softwaremethodik für verteilte Systeme an der Universit?t Augsburg und Mitglied des Direktoriums des CReAITech, sowie von Dr. Julia Krumme (Technische Hochschule Augsburg).

Zusammenhang mitdenken

?Welches Mindset sollten Menschen haben, die KI entwickeln, designen, implementieren und evaluieren?“, fasst Elia die Leitfrage ihrer Untersuchung zusammen. Eine Antwort: Es ist wichtig, dass sie sich den gr??eren Zusammenhang ihrer Arbeit bewusst machen. Denn oft haben Entwicklerinnen und Entwickler wenig Bezug zur Dom?ne, in der die KI eingesetzt werden soll.

Die Frage, wie KI und reale Welt sich gegenseitig beeinflussen, wird derzeit viel erforscht. ?Hier ist es einfach hilfreich, sich die richtigen Fragen zu stellen. Mit unserem Ansatz m?chten wir hierzu Richtungen und Realisierungsm?glichkeiten aufzeigen“, erkl?rt Elia.

Vier Kriterien für Verantwortungsvolle KI

Vier Kriterien k?nnen dabei helfen, sich diesen Zusammenhang bewusst zu machen, legt die Analyse von Elia dar:

  • Generalisierbarkeit: Die KI sollte in unterschiedlichen Situationen zuverl?ssig funktionieren. Zum Beispiel sollte eine medizinische KI, die hilft, Hautkrankheiten zu diagnostizieren, diese nicht nur bei einem bestimmten Hauttyp erkennen (etwa bei heller Haut), sondern bei allen Hauttypen (also auch bei dunklerer Haut). Dazu muss die KI an entsprechend vielf?ltigen Daten trainiert werden.
  • Anpassungsf?higkeit: Die KI sollte sich auf neue Gegebenheiten einstellen k?nnen. ?Die Welt, in der wir leben, ?ndert sich laufend. Daran sollte sich die KI anpassen k?nnen – wie wir Menschen“, erkl?rt Elia. Umwelteinflüsse, Klimawandel, Kriege, Pandemie: Eine KI, die beispielsweise hilft, Umweltrisiken zu bewerten, sollte solche Ereignisse berücksichtigen k?nnen.
  • Translationalit?t: Die KI sollte sich in bestehende Gegebenheiten integrieren lassen: ?Wo soll die KI eingesetzt werden? Welche Workflows und welche IT-Infrastruktur gibt es da? Welche Kompetenzen sind bei den Anwenderinnen und Anwendern bereits vorhanden – und welche Schulungen sind erforderlich?“, führt Elia aus. Wenn etwa ein neues medizinisches KI-Tool eingeführt wird, sollte das medizinische Personal geschult werden, um eine versehentliche Fehlnutzung zu vermeiden.
  • Transversalit?t: Wer KI entwickelt, sollte gesellschaftliche und ethische Aspekte mitdenken, um Verzerrungen zu vermeiden. ?Den Begriff führen wir für KI und Software-Entwicklung neu ein“, erl?utert Elia. ?Es geht darum, mitzudenken, in welcher Gesellschaft wir leben. Und was wir zum Beispiel unter Fairness verstehen“. Bisher viel genutzte Begriffe wie ?Fairness“ und ?Bias“ sind aus ihrer Sicht komplex, belastet und haben einen anderen Fokus. ?Daher nutzen wir einen neutraleren Begriff, der die zugrundeliegenden Mechanismen erst einmal objektiver beschreibt“, sagt Elia.
    Ein Beispiel: Um eine medizinische KI zu entwickeln, die m?nnliche und weibliche Personen gleicherma?en gut behandelt, br?uchte es in vielen F?llen mehr Daten weiblicher Patientinnen. Diese Datenlücke existiert ganz real – und beeinflusst die KI. Entwickler und Entwicklerinnen sollten dies berücksichtigen und in der Anwendung etwa ein Pop-Up-Fenster einführen, um das medizinische Personal daran zu erinnern, dass die Ergebnisse für weibliche Betroffene wahrscheinlich weniger akkurat sind.

Einfache Anwendung

Das Besondere an ihrem Ansatz ist, dass er über den gesamten Lebenszyklus einer KI gedacht ist – und dass er sich direkt an interdisziplin?re Entwicklerinnen und Entwickler richtet. Für sie werden online auch Materialien für eine spielerische Interaktion mit Ethik im Kontext individueller Projekte bereitgestellt. ?Wir haben versucht, die Konzepte anschaulich und leicht verst?ndlich zu übersetzen“, sagt Elia.

Denn ihr ist klar: Die Auseinandersetzung mit ethischen Kriterien darf für Beteiligte nicht viel Mehraufwand bedeuten. ?Alle haben immer nur wenig Zeit. Daher muss Ethik so einfach wie m?glich integriert werden k?nnen“, sagt Elia. Ihre Publikation und das Schulungsmaterial sollen dabei helfen. Besonders im Blick hat sie dabei Bereiche mit hoher gesellschaftlicher Verantwortung und hohem Risiko wie die Medizin, das Bildungswesen oder den ?ffentlichen Sektor.

cg

拉斯维加斯赌城

Miriam Elia, Paula Ziethmann, Julia Krumme, Kerstin Schl?gl-Flierl and Bernhard Bauer. in press. Responsible AI, ethics, and the AI lifecycle: how to consider the human influence?, AI and Ethics. DOI: 10.1007/s43681-025-00666-z
URL: https://link.springer.com/article/10.1007/s43681-025-00666-z

Schulungsmaterialien zu Responsible AI bei GitHub (zusammengestellt von Dr. Julia Krumme):? https://github.com/miriamelia/MQG4AI/blob/main/MQG4DesignKnowledge/1_System/Application/Ethics_Specific/Ethics_Specific.md

Center for Responsible AI Technologies (CReAITec):? https://center-responsible-ai.de/en/startseite/

?

?

Wissenschaftlicher Kontakt

Wiss. Mitarbeiterin
Professur für Softwaremethodik für verteilte Systeme

Startseite:

E-Mail:

Medienkontakt

Dr. Manuela Rutsatz
Pressesprecherin, Leitung
Stabsstelle Kommunikation & Marketing

E-Mail:

拉斯维加斯赌城