In der digitalen Ära haben sich künstliche Intelligenzen von bloßen Informationslieferanten zu rhetorisch geschickten Gesprächspartnern entwickelt. Eine aktuelle Studie von Salvi et al. (2025), veröffentlicht im renommierten Fachjournal Nature Human Behaviour, belegt eindrucksvoll, wie Large Language Models (LLMs) wie ChatGPT zunehmend in der Lage sind, Menschen nicht nur mit Informationen zu versorgen, sondern sie auch gezielt zu überzeugen – und das sogar effektiver als menschliche Diskussionspartner.
Das Experiment, an dem 900 Personen teilnahmen, untersuchte die Wirkung von KI-generierten Argumenten in Diskussionen zu kontroversen gesellschaftlichen Themen. Die Teilnehmenden wurden gebeten, zunächst ihre Meinung zu einem bestimmten Thema, etwa Schuluniformen, abzugeben. Anschließend führten sie eine zehnminütige Online-Debatte – entweder mit einem echten Menschen oder mit ChatGPT. In beiden Fällen wussten sie nicht, ob sie mit einer KI oder einem Menschen diskutierten. Nach dem Gespräch gaben die Probanden an, ob sich ihre Meinung geändert habe.
Die Ergebnisse waren aufschlussreich: ChatGPT war mindestens genauso erfolgreich wie menschliche Gesprächspartner darin, Haltungen zu verändern. Noch erstaunlicher: Wenn der Bot mit personenbezogenen Informationen wie Alter, Beruf oder politischer Einstellung der Gesprächspartner gefüttert wurde, war er in 64,4 Prozent der Fälle überzeugender als der Mensch – auch dann, wenn dieser dieselben Informationen hatte (Salvi et al., 2025). Dies verdeutlicht das enorme Potenzial personalisierter Argumentation, die LLMs durch ihre Fähigkeit zur Datenverarbeitung und -verknüpfung perfekt beherrschen.
Die Wissenschaftler betonen die Tragweite dieser Erkenntnisse: LLMs können Argumente nicht nur inhaltlich fundiert, sondern auch individuell zugeschnitten formulieren. Das eröffnet neue Chancen in der digitalen Kommunikation, etwa in der Bildung, der Politik oder der Therapie. Zugleich birgt es erhebliche Risiken, insbesondere im Hinblick auf gezielte Manipulation. Bereits in früheren Untersuchungen wurde gezeigt, dass Chatbots in der Lage sind, psychologische Tests zu durchschauen, moralische Urteile zu beeinflussen oder sogar Verschwörungsgläubige zu verunsichern.
Das Forschungsteam rund um Salvi warnt daher eindringlich vor einer unkritischen Nutzung dieser Technologien und fordert eine intensivere wissenschaftliche und ethische Auseinandersetzung mit dem Einsatz von KI in der zwischenmenschlichen Kommunikation. Die Gestaltung und Regulierung solcher Systeme müsse sicherstellen, dass die Überzeugungskraft von LLMs nicht zu einem Instrument der Manipulation werde, sondern dem gesellschaftlichen Diskurs dient.
Insgesamt unterstreicht die Studie die wachsende Bedeutung künstlicher Intelligenz als Akteur in sozialen Interaktionen. Die Fähigkeit von ChatGPT, durch individuell abgestimmte Argumente Meinungen zu verändern, ist nicht nur ein Meilenstein der KI-Entwicklung – sie stellt auch eine Herausforderung für die Gesellschaft, die Politik und die Medienethik dar.
Literatur
Salvi, F., Horta Ribeiro, M., Gallotti, R, & West, R. (2025). On the conversational persuasiveness of GPT-4. Nature Human Behaviour, doi:10.1038/s41562-025-02194-6