Wenn KI Quatsch erzählt
Warum KI falsche Fakten liefert
KI-Chatbots erzeugen Text, der sich richtig anhört, aber faktisch falsch sein kann. Wenn du die KI für ein Schulreferat fragst, erfindet sie manchmal Fakten, Zitate oder sogar ganze Studien. Das nennt man KI-Halluzinationen. Die KI merkt nicht, dass sie etwas Falsches sagt.
Falschinformationen erkennen
Prüfe jede wichtige KI-Aussage nach! Suche nach der Quelle: Gibt es die genannte Studie wirklich? Vergleiche mit seriösen Webseiten wie öffentlich-rechtlichen Medien oder Lexika. Sei besonders vorsichtig bei Zahlen, Daten und Zitaten — hier liegt die KI besonders oft falsch.
Richtig mit KI recherchieren
Nutze KI als Ausgangspunkt, nicht als einzige Quelle. Prüfe jede wichtige Information mit mindestens einer weiteren Quelle. Schreibe in der Schule nicht einfach ab, was die KI sagt. Frag die KI nach ihren Quellen — aber prüfe auch diese!
Detektiv-Tipp: In Tests haben KI-Chatbots bis zu 30% falsche Fakten in ihre Antworten eingebaut — und sie klangen dabei genauso überzeugend wie bei den richtigen Fakten!
Mini-Check (1/2)
Du nutzt KI für ein Schulreferat und sie nennt dir eine Studie der Universität München von 2023. Was tust du?