Automatisiertes, KI-basiertes Feedback in simulationsbasierten Lernumgebungen (Teilprojekt 4)
Teilprojektbeschreibung
Aktuelle Machine-Learning-Ans?tze haben das Potenzial, menschliches Verhalten auf Basis von zuvor festgelegten Kriterien objektiv und reliabel zu erfassen. Verhalten von Student*innen (etwa in der Interaktion mit Schauspielpatient*innen bei der ?rztlichen Gespr?chsführung oder bei einem ?bungsvortrag) kann auf diese Weise erkannt und damit zur Formulierung von Feedback mit Blick auf ihre Kompetenzentwicklung genutzt werden. Aufbauend auf umfangreichen eigenen Vorarbeiten soll ein Machine-Learning-Algorithmus weiterentwickelt werden, der menschliches Verhalten in Bezug auf seine Konvergenz mit gewünschten Verhaltenskriterien analysiert. Die so erzielten Ergebnisse werden genutzt, um Student*innen automatisiertes, KI-basiertes Feedback auf ihr Verhalten zu pr?sentieren, das sie in digital angereicherten Pr?senzsettings in unterschiedlichen F?chern zeigen (kommunikatives Verhalten z.B. in Arzt-Patienten- oder Elternberatungsgespr?chen). Der Mehrwert gegenüber menschlichem Feedback liegt u.a. in der gr??eren Objektivit?t und der sp?teren Skalierbarkeit des Ansatzes. Diesem Projekt sind hauptverantwortlich die Fakult?t für Angewandte Informatik und die Medizinische Fakult?t zugeordnet. Transferiert werden die Entwicklungen im dritten Projektjahr in die Lehrerbildung (Philosophisch-Sozialwissenschaftliche Fakult?t).
?
?
Publikationen
2024
-
Hallmen, T., Deuser, F., Oswald, N., & André, E. (2024). Unimodal multi-task fusion for emotional mimicry prediciton. PDF
-
Schiller, D., Hallmen, T., Don, D. W., André, E., & Baur, T. (2024). DISCOVER: A Data-driven Interactive System for Comprehensive Observation, Visualization, and ExploRation of Human Behaviour. arXiv preprint arXiv:2407.13408.
-
Hallmen, T., Deuser, F., Oswald, N., & André, E. (2024). Unimodal Multi-Task Fusion for Emotional Mimicry Intensity Prediction. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (S. 4657-4665). IEEE Computer Society. https://doi.org/10.48550/arXiv.2403.11879
2023
-
Hallmen, T., Mertes, S., Schiller, D., Lingenfelser, F., & André, E. (2023). Phoneme-Based Multi-task Assessment of Affective Vocal Bursts. In D. Conte, A. Fred, O. Gusikhin, & C. Sansone (Hrsg.), Deep Learning Theory and Applications (Vol. 1875, S. 209–222). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-39059-3_14
2022
-
Bauermann, M., Schindler, A.-K., & Rotthoff, T. (2022). Studienprotokoll: Einfluss von Mimik in medizinischen ad hoc-Anvertrauensentscheidungen. In D. Stoevesandt (Hrsg.), GMA 2022 - Gemeinsame Jahrestagung der Gesellschaft für Medizinische Ausbildung (GMA) und des Arbeitskreises zur Weiterentwicklung der Lehre in der Zahnmedizin (AKWLZ) (S. 37-38). Halle: German Medical Science GMS Publishing House. https://doi.org/10.3205/22gma050
-
Hallmen, T., Mertes, S., Schiller, D., & André, E. (2022). An Efficient Multitask Learning Architecture for Affective Vocal Burst Analysis. https://arxiv.org/html/2210.15754/.
Teilprojektleiter
- Telefon: +49 821 598 - 72050
- E-Mail: thomas.rotthoff@med.uni-augsburgmed.uni-augsburg.de ()
- Raum 06.005 (Geb?ude Medizinische Fakult?t - Lehrgeb?ude LGB)
Projektbeteiligte
- Telefon: +49 821 598 - 2340
- Telefon: (+49) 0821-598 -3778
- Telefon: +49 821 598 2322
- Telefon: +49 821 598 – 72052
Beteiligte Lehrstühle und Einrichtungen (Universit?t Augsburg)
?
Das Projekt ?Kompetenzentwicklung durch digitale authentische und feedbackbasierte Lehr-Lernszenarien st?rken“ wird im Rahmen der F?rderbekanntmachung ?Hochschullehre durch Digitalisierung st?rken“ (FBM2020) aus Mitteln der Stiftung Innovation in der Hochschulehre gef?rdert.