Human-Centred Artificial Intelligence Research Group
Die Forschungsgruppe "Human-Centred Artificial Intelligence" ("Menschenzentrierte Künstliche Intelligenz") ist Teil der gemeinsamen Professur für "Forschungsinfrastrukturen für die Digital Humanities" unter Leitung von Prof. Dr.-Ing. Ernesto William De Luca, die auch die Leitung der Abteilung "Menschenzentrierte Technologien für Bildungsmedien" des Leibniz-Instituts für Bildungsmedien | Georg-Eckert-Institut (GEI) umfasst. Die gemeinsame Professur beinhaltet auch den Aufbau und die Nutzung eines hybriden Usability-Labors, das von beiden Einrichtungen genutzt wird.
Die Forschungsgruppe arbeitet in verschiedenen Forschungsbereichen im Zusammenhang mit Human-Centred Artificial Intelligence (HCAI) und Human-Centred Design (HCD), mit einem besonderen Fokus auf Responsible AI, Ethical AI, Machine Learning, Natural Language Processing, Human-Computer Interaction, User-Adaptive Systems und Usability.
Human-Centred Artificial Intelligence
Human-Centred Artificial Intelligence (HCAI) ist eine innovative Disziplin, die darauf abzielt, KI-Systeme zu schaffen, die menschliche Fähigkeiten erweitern und ergänzen (anstatt sie zu ersetzen). HCAI zielt darauf ab, die menschliche Kontrolle auf eine Weise zu bewahren, die sicherstellt, dass Künstliche Intelligenz (KI) unsere Bedürfnisse erfüllt und gleichzeitig transparent arbeitet, faire und gerechte Ergebnisse liefert und die Privatsphäre respektiert.
Die wichtigsten Forschungsthemen sind:
- Ethical AI and Trustworthiness: 2019 veröffentlichte die von der Europäischen Kommission eingesetzte Hochrangige Expertengruppe für KI (AI HLEG) das Dokument "Ethics Guidelines for Trustworthy AI". Ziel der Leitlinien ist es, vertrauenswürdige KI zu fördern. Vertrauenswürdige KI hat drei Komponenten, die während des gesamten Lebenszyklus des Systems erfüllt sein sollten: (1) sie sollte rechtmäßig sein und alle geltenden Gesetze und Vorschriften einhalten, (2) sie sollte ethisch sein und die Einhaltung ethischer Grundsätze und Werte gewährleisten und (3) sie sollte robust sein, sowohl aus technischer als auch aus sozialer Sicht, da KI-Systeme auch bei guten Absichten unbeabsichtigt Schaden anrichten können. Insbesondere sollte jedes KI-System so entwickelt, eingesetzt und genutzt werden, dass die folgenden ethischen Grundsätze eingehalten werden: (I) Achtung der menschlichen Autonomie, (II) Verhinderung von Schaden, (III) Fairness und (IV) Erklärbarkeit.
- Responsible AI: KI geht uns alle an und hat Auswirkungen auf uns alle, nicht nur individuell, sondern auch kollektiv. Wir müssen daher über die Analyse der Vorteile und Auswirkungen für einzelne Nutzer hinausgehen und KI-Systeme als Teil einer zunehmend komplexen soziotechnischen Realität betrachten. Bei verantwortungsvoller KI geht es also darum, mit der Macht, die KI mit sich bringt, verantwortungsvoll umzugehen. Wenn wir Artefakte entwickeln, die mit einer gewissen Autonomie handeln, dann "sollten wir besser ganz sicher sein, dass der Zweck, der in die Maschine gesteckt wird, der Zweck ist, den wir wirklich wollen". Die größte Herausforderung besteht darin, zu bestimmen, was Verantwortung bedeutet, wer verantwortlich ist, wofür, und wer das entscheidet. Da es sich bei KI-Systemen um Artefakte handelt, um Werkzeuge, die für einen bestimmten Zweck gebaut wurden, kann die Verantwortung niemals beim KI-System liegen, denn als Artefakt kann es nicht als verantwortlicher Akteur angesehen werden. Auch wenn das Verhalten eines Systems von den Entwicklern oder Anwendern nicht immer vorausgesehen werden kann, sind Verantwortungsketten erforderlich, die das Verhalten des Systems mit den verantwortlichen Akteuren in Verbindung bringen. Es stimmt, dass einige, vor allem das Europäische Parlament, für eine Art von Rechtspersönlichkeit für KI-Systeme plädiert haben. Verantwortungsvolle KI erfordert Beteiligung. Das heißt, sie erfordert das Engagement aller Beteiligten und die aktive Einbeziehung der gesamten Gesellschaft. Das bedeutet, dass jeder in der Lage sein sollte, angemessene Informationen darüber zu erhalten, was KI ist und was sie für ihn bedeuten kann, und auch Zugang zu Bildung über KI und verwandte Technologien haben sollte. Es bedeutet auch, dass KI-Forscher und -Entwickler sich der gesellschaftlichen und individuellen Auswirkungen ihrer Arbeit bewusst sein und verstehen müssen, wie verschiedene Menschen in unterschiedlichen Kulturen KI-Technologien nutzen und mit ihnen leben.
- Natural Language Processing (NLP) ist ein Teilgebiet der KI, das sich damit befasst, Computern die Fähigkeit zu verleihen, Texte und gesprochene Worte in ähnlicher Weise wie Menschen zu verstehen. NLP kombiniert Computerlinguistik mit statistischen, maschinellen Lernverfahren und Deep-Learning-Modellen. Gemeinsam versetzen diese Technologien Computer in die Lage, menschliche Sprache in Form von Text- oder Sprachdaten zu verarbeiten und deren volle Bedeutung zu erfassen, einschließlich der Absicht und der Stimmung des Sprechers oder Schreibers.
- User Profiling zielt darauf ab, aus den generierten Daten die Interessen, Persönlichkeitsmerkmale oder Verhaltensweisen einer Person abzuleiten, um eine effiziente Nutzerdarstellung, d. h. ein Nutzermodell, zu erstellen, das von adaptiven und personalisierten Systemen genutzt wird. Moderne Systeme konzentrieren sich auf die implizite Erstellung von Nutzerdaten auf der Grundlage der Handlungen und Interaktionen von Einzelpersonen; dieser Ansatz wird auch als Verhaltensprofilierung bezeichnet.
- Algorithmic Fairness ist das Forschungsgebiet an der Schnittstelle von maschinellem Lernen und Ethik. Konkret geht es um die Erforschung der Ursachen für Verzerrungen in Daten und Algorithmen, um die Definition und Anwendung von Messungen der Fairness und um die Entwicklung von Datenerhebungs- und Modellierungsmethoden zur Schaffung fairer Algorithmen und fairer KI-Systeme, indem Regierungen/Unternehmen beraten werden, wie maschinelles Lernen reguliert werden kann. Es ist auch wichtig zu verstehen, dass die Ansätze zur Fairness nicht nur quantitativ sind. Denn die Gründe für Unfairness gehen über Daten und Algorithmen hinaus. Bei der Forschung geht es darum, die Ursachen für Unfairness zu verstehen und zu bekämpfen.
- Explainability, auch als "Interpretability" bezeichnet, ist das Konzept, dass ein Modell des maschinellen Lernens und seine Ergebnisse so erklärt werden können, dass sie für einen Menschen auf einem akzeptablen Niveau unverständlich sind. Anders als bei herkömmlicher Software ist es unter Umständen nicht möglich, einem Endbenutzer das Ergebnis einer maschinellen Lernmethode oder eines Deep-Learning-Modells zu erklären. Dieser Mangel an Transparenz kann zu erheblichen Verlusten führen und das Misstrauen der User und die Weigerung, KI-Anwendungen zu nutzen, zur Folge haben. Die Erklärbarkeit ("Explainability") kann Entwicklern dabei helfen, sicherzustellen, dass das System wie erwartet funktioniert.
Human-Centred Design
Human-Centred Design (HCD) ist ein Ansatz zur Entwicklung interaktiver Systeme, der sich auf die Nutzung des interaktiven Systems konzentriert und Kenntnisse und Methoden der Usability und User Experience (UX) anwendet. Es basiert auf einem expliziten Verständnis von Users, Zielen, Aufgaben, Ressourcen und Umgebungen. Die Users werden während des gesamten Entwurfs einbezogen. Das Design wird durch die Anforderungen der Users bestimmt und durch die Bewertung der Usability verfeinert. Ein HCD Prozess ist iterativ, d. h. er wird so lange verfeinert, bis die User-Anforderungen erfüllt sind. HCD befasst sich mit der gesamten UX.
Die wichtigsten Forschungsthemen sind:
- Usability ist das Ausmaß, in dem ein interaktives System in einem bestimmten Nutzungskontext effektiv, effizient und zufriedenstellend zu nutzen ist. Ein interaktives System ist effektiv, wenn es das unterstützt, was die Users tun müssen, um ihre Ziele zu erreichen, und wenn die Users herausfinden können, wie sie es tun können. Es ist effizient, wenn es die Users dabei unterstützt, ihre Aufgaben schnell und ohne zu viel nachzudenken zu erledigen. Sie ist zufriedenstellend, wenn sie die Erwartungen der Users erfüllt und angenehm zu benutzen ist.
- User Experience berücksichtigt die erwartete Nutzung, die Zufriedenheit der Users während der Nutzung und die Erfüllung ihrer Erwartungen nach der Nutzung (während Usability nur die Zufriedenheit während der Nutzung berücksichtigt).