Komplexität senken und Vertrauen erhöhen
Wenn Mensch und Technologie zusammenarbeiten sollen, spielt das Vertrauen eine wesentliche Rolle. Im Rahmen der Salzburger Hochschulwochen referierte Universitätsprofessor Alexander Meschtscherjakov von der Paris Lodron Universität Salzburg PLUS über diesen wesentlichen Erfolgsfaktor bei der Akzeptanz von Technologie.
Seit 2024 hat Alexander Meschtscherjakov die Professur für User-Centered Design am Fachbereich Artificial Intelligence and Human Interfaces der PLUS inne. Damit arbeitet er an der Schnittstelle zwischen Mensch und Maschine, die vor allem eines im Auge behalten muss: das Vertrauen der Nutzenden. „Es gibt drei Kriterien, die dieses Vertrauen erzeugen. Die Technologie muss die Kompetenzerwartung erfüllen, sprich etwas können. Die Nutzenden erwarten Integrität, also Rechtschaffenheit der Technologie, sie haben eine Benevolenzerwartung und setzen Wohlwollen voraus“, sagte er im Rahmen der Vorlesung „Vertrauen in Technik – ein zweischneidiges Schwert“. Die Vorträge waren Teil der Salzburger Hochschulwochen, die heuer unter dem Motto „Fragiles Vertrauen“ stehen.
In einer immer komplexer werdenden Welt, die nur mehr schwer zu durchschauen ist, braucht es dieses Vertrauen. Zu schaffen sei es, „indem man die Komplexität so weit reduziert, dass eine Interaktion möglich wird.“ Anhand des Technologie Akzeptanz Modells TAM erklärte Meschtscherjakov, dass die Nutzung von Technologien von zwei Variablen abhängig ist. Einerseits muss der Mensch erkennen, dass er mit neuen Mitteln tatsächlich schneller ans Ziel kommt, andererseits braucht er das Wissen, welcher Aufwand nötig ist, um die Technologie zu erlernen. Nicht unwesentlich: Der Mensch ist auch dann schneller bereit, zu vertrauen, wenn er die Technologie als beherrschbar einschätzt. In diesem Zusammenhang sprach Meschtscherjakov von „kalibriertem Vertrauen“. Davon spricht man, wenn Nutzer:innen die Möglichkeit erhalten, ihr Verhalten einer spezifischen Situation anpassen zu können. Damit es entstehen kann, sind mehrere Faktoren wichtig. So sollte beispielsweise der Zeitpunkt für eine Verhaltensänderung entweder im Vorfeld einer Interaktion oder währenddessen gegeben sein.
Die beiden Pole, zwischen denen sich kalibriertes Vertrauen bewegt, werden „undertrust“ und „overtrust“ genannt. Vor allem Pilot:innen sagten von sich selbst, dass sie sehr häufig übermäßig vertrauen, und zwar in die automatische Steuerung eines Flugzeugs, erläutert Meschtscherjakov. Oftmals zögerten sie den Zeitpunkt für ihren Eingriff in das System so lange hinaus, bis es fast schon zu spät sei. „Diese Gefahr sehe ich auch beim automatisierten Fahren“, sagt der Professor. Weder sei bei diesem Konzept klar, wer die Autorität im Auto sei, noch wer die Verantwortung für Fehler trage. Für Meschtscherjakov ist Technik amoralisch, weil sie vielfach von Menschen gesteuert werde.
Das gilt auch für die Künstliche Intelligenz, die derzeit in aller Munde ist. Abgesehen davon, dass ihr Erfolg davon abhängt, mit welchen Daten sie gefüttert wird und wie präzise die Fragestellungen sind, kann KI auch halluzinieren. In diesen Fällen erhält man ein Resultat, das zwar überzeugend klingt, aber durch Daten in keiner Weise gerechtfertigt ist und deshalb auch falsch sein kann. Eine Untersuchung von wissenschaftlichen Arbeiten, die von einer KI erstellt wurde, hat unter anderem ergeben: 55 Prozent der Sätze waren nicht belegbar, 60 Prozent der Zitate waren falsch, 25 Prozent der Verweise gingen auf nicht existente Artikel zurück. „Das hat bewiesen, dass sich KI für wissenschaftliches Arbeiten nicht eignet.“
Mit drei Gedanken schloss Meschtscherjakov seine zweiteilige Vortragsreihe. Es gebe zwischen Mensch und Maschine keine einfachen Lösungen für schwierige Probleme, es gehe nur gemeinsam und interdisziplinär. Kritikfähigkeit ist ein wertvolles Gut, vor allem wenn man sich in der Blase befinde, in der Übereinstimmung herrsche. Die Wissenschaft sei mit ihrer Art und Weise, Dinge anzugehen, ein geeigneter Ort, um Probleme zu lösen. Und damit zusammenhängend plädierte er für eine barmherzige Auslegung von unterschiedlichen Meinungen. „Eine positive Grundeinstellung bei gleichzeitigem kritischen Hinterfragen sind im Umgang mit Technologien der beste Weg.“
Kontakt:
Univ.-Prof. Dipl.-Ing. Dr. Alexander Meschtscherjakov
Fachbereich Artificial Intelligence and Human Interfaces
Jakob Haringer Straße 8 | 5020 Salzburg
+43 662 8044 4844
Fotonachweis: Kolarik