Autonomie & Algorithmen
Wenn KI-Systeme sich selbst erklären: Nachvollziehbarkeit, Ko-Konstruktion und Vertrauen.
30 Aug 2024
Bitte schenkt uns 10 Minuten eurer Zeit, um an der Evaluation unseres Podcasts teilzunehmen! Danke!Zur Umfrage geht es hier.+++Unter dem Stichwort "Erklärbare KI" (Explainable AI, XAI) werden Ansätze verstanden, mit Hilfe derer KI-Systeme selbst Erklärungen über ihre Funktionsweise und ihre Ergebnisse an die Nutzenden kommunizieren. Klingt simpel? Ist es aber nicht. Erklärungen können die Nachvollziehbarkeit eines Systems erhöhen, sie können aber auch nur das Gefühl erwecken, das System verstanden zu haben. Oder sie können Antworten auf Fragen geben, die die Nutzenden gar nicht haben. Was es alles zu beachten gilt und wie sich die Forschung zu XAI in den letzten Jahren gewandelt hat, das erfahrt ihr bei uns!+++Katharina Rohlfing ist Professorin für Psycholinguistik an der Universität Paderborn und Sprecherin des Sonderforschungsbereich/Transregio 318 "Constructing Explainability", in dem Forscher*innen Wege erforschen, die Nutzer*innen in den Erklärprozess einzubinden und damit ko-konstruktive Erklärungen zu schaffen. Darüber sind ihre Forschungsschwerpunkte u.a. Multimodale Interaktion, frühkindlicher Spracherwerb und Gedächtnisprozesse und Kind-Roboter Interaktion.Tim Schrills ist Wissenschaftlicher Mitarbeiter an der Professur für Ingenieurpsychologie und Kognitive Ergonomie am Institut für Multimediale und Interaktive Systeme der Universität zu Lübeck. In seiner Forschung beschäftigt er sich u.a. mit der Unterstützung menschlicher Informationsverarbeitung durch KI-Systeme, Methoden der Erklärbarkeit sowie KI-Systemen in der Medizin.+++LinklisteMadsen & Gregor (2000), Measuring Human-Computer Trust. Jian et al. (2010), Foundations for an Empirically Determined Scale of Trust in Automated Systems. International Journal of Cognitive Ergonomics.Bartlett & McCarley (2017), Benchmarking Aided Decision Making in a Signal Detection Task. Human Factors.Schrills (2023), Erklärbare KI. In: Künstliche Intelligenz in öffentlichen Verwaltungen.Chromik et al. (2021), I Think I Get Your Point, AI! The Illusion of Explanatory Depth in Explainable AI. Proceedings of the 26th International Conference on Intelligent User Interfaces.Schrills & Franke (2023), How Do Users Experience Traceability of AI Systems? Examining Subjective Information Processing Awareness in Automated Insulin Delivery (AID) Systems. ACM Transactions on Interactive Intelligent Systems.Yacobi et al. (2022), “If it didn’t happen, why would I change my decision?”: How Judges Respond to Counterfactual Explanations for the Public Safety Assessment. Proceedings of the Tenth AAAI Conference on Human Computation and Crowdsourcing.Rohlfing et al. (2020), Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems. IEEE Transactions on Cognitive and Developmental Systems.Buschmeier et al. (2023), Forms of Understanding of XAI-Explanations. arXiv.EU AI Act: Einheitliche Regeln für Künstliche Intelligenz in der EUHäntzschel & Schrills (2024), Der EU AI Act und seine Auswirkungen auf Human-Computer Interaction. (YouTube-Video)Deck et al. (2024), A Critical Survey on Fairness Benefits of Explainable AI. Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency.+++Habt ihr Fragen, Ideen, Impulse oder Feedback? Bringt euch ein, wir freuen uns!Unsere E-Mail-Adresse: [email protected] Bluesky-Profil: https://bsky.app/profile/auto-algo.bsky.socialUnser Kontaktformular: https://autonomie-algorithmen.letscast.fm/feedback+++"Autonomie und Algorithmen: Freiheit im Zeitalter von KI" ist eine Gemeinschaftsproduktion.Konzeption und Produktion: Christiane Attig und Benjamin Paaßen.Redaktionelle Unterstützung: Johanna Dobroschke.Postproduktion: Anne-Katrin Pache-Wilke und Christiane Attig.Musik: Almut Schwacke.Grafikdesign: Sven Sedivy.Dieser Podcast wird gefördert vom Bundesministerium für Bildung und Forschung im Rahmen des Wissenschaftsjahres 2024 – Freiheit.
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
3ª PARTE | 17 DIC 2025 | EL PARTIDAZO DE COPE
01 Jan 1970
El Partidazo de COPE
Buchladen: Tipps für Weihnachten
20 Dec 2025
eat.READ.sleep. Bücher für dich
BOJ alza 25pb decennale sopra 2%, Oracle vola con accordo Tik Tok, 90 mld eurobond per Ucraina | Morning Finance
19 Dec 2025
Black Box - La scatola nera della finanza
365. The BEST advice for managing ADHD in your 20s ft. Chris Wang
19 Dec 2025
The Psychology of your 20s
LVST 19 de diciembre de 2025
19 Dec 2025
La Venganza Será Terrible (oficial)
Cuando la Ciencia Ficción Explicó el Mundo que Hoy Vivimos
19 Dec 2025
El Podcast de Marc Vidal