Ganzheitlicher Ansatz für verantwortungsvolle KI
Vier S?ulen sollen helfen, Künstliche Intelligenz vertrauenswürdig und nachhaltig zu machen
Von der ersten Idee über die Entwicklung bis hin zur Implementierung und Evaluation: Wie kann Künstliche Intelligenz über ihren gesamten Lebenszyklus hinweg verantwortungsvoll gestaltet werden? Welches Grundwissen und welche Haltung sollten Menschen mitbringen, die daran beteiligt sind? Das hat die Informatikerin Miriam Elia von der Universit?t Augsburg gemeinsam mit anderen Forschenden untersucht. Die Zusammenarbeit ist am Center for Responsible AI Technologies (CReAITec) angesiedelt gewesen. Das Ergebnis: ein ganzheitlicher Ansatz, der auf vier S?ulen basiert. Künstliche Intelligenz ist dabei, unterschiedliche Bereiche in Gesellschaft und Wirtschaft grundlegend zu ver?ndern. So vielversprechend die zukunftsweisenden M?glichkeiten auch sind, l?sst diese digitale Transformation auch Sorgen aufkommen – und Regulierungsbedarf, etwa in Form der KI-Verordnung der EU, die vergangenes Jahr in Kraft getreten ist und einen verantwortungsvollen Umgang mit KI f?rdern soll. Doch wie l?sst sich dies in der Praxis umsetzen? ?Wir müssen den menschlichen Einfluss entlang des gesamten Lebenszyklus einer KI berücksichtigen“, sagt Miriam Elia, wissenschaftliche Mitarbeiterin am Institut für Informatik der Universit?t Augsburg. Sie hat einen ganzheitlichen ethischen Ansatz zum verantwortungsvollen Umgang mit KI entwickelt. Unterstützt wurde sie dabei von Paula Ziethmann (CReAITech), von Prof. Dr. Kerstin Schl?gl-Flierl vom Lehrstuhl für katholische Moraltheologie und von ihrem Doktorvater Prof. Dr. Bernhard Bauer, Professor für Softwaremethodik für verteilte Systeme an der Universit?t Augsburg und Mitglied des Direktoriums des CReAITech, sowie von Dr. Julia Krumme (Technische Hochschule Augsburg). ?Welches Mindset sollten Menschen haben, die KI entwickeln, designen, implementieren und evaluieren?“, fasst Elia die Leitfrage ihrer Untersuchung zusammen. Eine Antwort: Es ist wichtig, dass sie sich den gr??eren Zusammenhang ihrer Arbeit bewusst machen. Denn oft haben Entwicklerinnen und Entwickler wenig Bezug zur Dom?ne, in der die KI eingesetzt werden soll. Die Frage, wie KI und reale Welt sich gegenseitig beeinflussen, wird derzeit viel erforscht. ?Hier ist es einfach hilfreich, sich die richtigen Fragen zu stellen. Mit unserem Ansatz m?chten wir hierzu Richtungen und Realisierungsm?glichkeiten aufzeigen“, erkl?rt Elia. Vier Kriterien k?nnen dabei helfen, sich diesen Zusammenhang bewusst zu machen, legt die Analyse von Elia dar: Das Besondere an ihrem Ansatz ist, dass er über den gesamten Lebenszyklus einer KI gedacht ist – und dass er sich direkt an interdisziplin?re Entwicklerinnen und Entwickler richtet. Für sie werden online auch Materialien für eine spielerische Interaktion mit Ethik im Kontext individueller Projekte bereitgestellt. ?Wir haben versucht, die Konzepte anschaulich und leicht verst?ndlich zu übersetzen“, sagt Elia. Denn ihr ist klar: Die Auseinandersetzung mit ethischen Kriterien darf für Beteiligte nicht viel Mehraufwand bedeuten. ?Alle haben immer nur wenig Zeit. Daher muss Ethik so einfach wie m?glich integriert werden k?nnen“, sagt Elia. Ihre Publikation und das Schulungsmaterial sollen dabei helfen. Besonders im Blick hat sie dabei Bereiche mit hoher gesellschaftlicher Verantwortung und hohem Risiko wie die Medizin, das Bildungswesen oder den ?ffentlichen Sektor. cg Miriam Elia, Paula Ziethmann, Julia Krumme, Kerstin Schl?gl-Flierl and Bernhard Bauer. in press. Responsible AI, ethics, and the AI lifecycle: how to consider the human influence?, AI and Ethics. DOI: 10.1007/s43681-025-00666-z Schulungsmaterialien zu Responsible AI bei GitHub (zusammengestellt von Dr. Julia Krumme):?
https://github.com/miriamelia/MQG4AI/blob/main/MQG4DesignKnowledge/1_System/Application/Ethics_Specific/Ethics_Specific.md Center for Responsible AI Technologies (CReAITec):?
https://center-responsible-ai.de/en/startseite/ ? ?
E-Mail:
miriam.elia@informatik.uni-augsburginformatik.uni-augsburg.de ()
E-Mail:
manuela.rutsatz@presse.uni-augsburgpresse.uni-augsburg.de ()
Interdisziplin?re Studie
Zusammenhang mitdenken
Vier Kriterien für Verantwortungsvolle KI
Ein Beispiel: Um eine medizinische KI zu entwickeln, die m?nnliche und weibliche Personen gleicherma?en gut behandelt, br?uchte es in vielen F?llen mehr Daten weiblicher Patientinnen. Diese Datenlücke existiert ganz real – und beeinflusst die KI. Entwickler und Entwicklerinnen sollten dies berücksichtigen und in der Anwendung etwa ein Pop-Up-Fenster einführen, um das medizinische Personal daran zu erinnern, dass die Ergebnisse für weibliche Betroffene wahrscheinlich weniger akkurat sind.Einfache Anwendung
拉斯维加斯赌城
URL:
https://link.springer.com/article/10.1007/s43681-025-00666-z
Wissenschaftlicher Kontakt
Medienkontakt