Gespräch mit dem Chatbot: Warum wir ihm vertrauen (oder auch nicht) – Visento
Gespräch mit dem Chatbot: Warum wir ihm vertrauen (oder auch nicht)
Technik/Digital
Viele behandeln die Künstliche Intelligenz wie einen realen Menschen. Foto: KI freepik

Gespräch mit dem Chatbot: Warum wir ihm vertrauen (oder auch nicht)

10.01.2025
von pero · 268 x gelesen

«Hallo ChatGPT, kannst du mir helfen?» – «Klar, wie kann ich dir helfen? ?»

So oder so ähnlich läuft oft die Unterhaltung zwischen uns und Chatbots, die mit künstlicher Intelligenz (KI) arbeiten. Manchmal fühlt es sich fast an, als würde man mit einer echten Person sprechen.

Dr. Fanny Lalot und Anna-Marie Bertram von der Universität Basel haben untersucht, wie sehr wir KI-Chatbots vertrauen und warum. Dabei ging es speziell um textbasierte Systeme wie ChatGPT – also nicht um Sprachassistenten wie Siri oder Alexa.

Was entscheidet über Vertrauen?

In der Studie wurden Testpersonen Gespräche mit einem fiktiven Chatbot namens „Conversea“ gezeigt. Danach sollten sie sich vorstellen, selbst mit diesem Chatbot zu sprechen. Die Ergebnisse der Untersuchung wurden in einer Fachzeitschrift veröffentlicht.

Vertrauen ist auch bei Chatbots ein komplexes Thema. Ob wir ihnen vertrauen, hängt von verschiedenen Faktoren ab: unserer Persönlichkeit, dem Verhalten des Chatbots und der Situation. Laut Fanny Lalot spielen vor allem drei Eigenschaften eine Rolle: Integrität, Kompetenz und Wohlwollen.

Die Studie zeigt, dass wir diesen Eigenschaften bei KI-Systemen ähnlich viel Gewicht beimessen wie bei Menschen. Besonders wichtig sind dabei Kompetenz und Integrität. Wohlwollen – also ob der Chatbot freundlich wirkt – spielt eine untergeordnete Rolle, solange die anderen beiden Eigenschaften erfüllt sind.

Personalisierung macht Chatbots „menschlicher“

Chatbots, die uns mit Namen ansprechen oder sich an frühere Gespräche erinnern, wirken auf uns besonders kompetent und wohlwollend. Das führt dazu, dass wir solche Chatbots eher nutzen und ihnen mehr Informationen anvertrauen. Aber überraschenderweise erhöht das die wahrgenommene Integrität nicht unbedingt. Das Vertrauen in personalisierte Chatbots war in der Studie also nicht viel höher als in unpersönliche.

Integrität als Schlüssel zum Vertrauen

Die Ergebnisse der Studie zeigen, dass Integrität für die Vertrauenswürdigkeit eines Chatbots entscheidend ist. Entwickelnde sollten daher besonders darauf achten, dass ihre Systeme ehrlich und transparent agieren.

Es gibt aber auch Risiken: Einsame oder verletzliche Menschen könnten sich zu stark auf personalisierte KI-Chatbots verlassen, was problematisch werden kann. Studien zeigen, dass solche Abhängigkeiten zu Isolation führen können – ähnlich wie in einer «Echokammer», in der keine kritischen Gegenstimmen mehr zu hören sind.

Brauchen Chatbots Richtlinien?

Was passiert, wenn ein Chatbot uns einmal «betrügt» – also zum Beispiel einen falschen Rat gibt, der negative Folgen hat? «Das wäre spannend zu erforschen», meint Fanny Lalot. Sie kann sich gut vorstellen, dass man sich in so einem Fall hintergangen fühlt.

Um solche Situationen zu vermeiden, sollten klare Richtlinien für KI-Systeme gelten. Ein vertrauenswürdiger Chatbot sollte offenlegen, wie er zu seinen Antworten kommt, und zugeben, wenn er etwas nicht weiss. Nur so können wir lernen, verantwortungsvoll mit dieser Technologie umzugehen.

Chatbots sind ein nützliches Werkzeug, aber sie sind keine echten Menschen. Wir dürfen nicht vergessen, dass wir oft mehr in sie hineinprojizieren, als tatsächlich da ist. Vertrauen in KI kann hilfreich sein, aber es sollte immer gut überlegt sein.


← Zurück zur Übersicht
100%