Zum Inhalt springen
KI für Kindermit Kilumi
0
Fall 7
🧠

Wenn KI Quatsch erzählt

|

Warum KI falsche Fakten liefert

KI-Chatbots erzeugen Text, der sich richtig anhört, aber faktisch falsch sein kann. Wenn du die KI für ein Schulreferat fragst, erfindet sie manchmal Fakten, Zitate oder sogar ganze Studien. Das nennt man KI-Halluzinationen. Die KI merkt nicht, dass sie etwas Falsches sagt.

Falschinformationen erkennen

Prüfe jede wichtige KI-Aussage nach! Suche nach der Quelle: Gibt es die genannte Studie wirklich? Vergleiche mit seriösen Webseiten wie öffentlich-rechtlichen Medien oder Lexika. Sei besonders vorsichtig bei Zahlen, Daten und Zitaten — hier liegt die KI besonders oft falsch.

Richtig mit KI recherchieren

Nutze KI als Ausgangspunkt, nicht als einzige Quelle. Prüfe jede wichtige Information mit mindestens einer weiteren Quelle. Schreibe in der Schule nicht einfach ab, was die KI sagt. Frag die KI nach ihren Quellen — aber prüfe auch diese!

Kilumi sagt:

Detektiv-Tipp: In Tests haben KI-Chatbots bis zu 30% falsche Fakten in ihre Antworten eingebaut — und sie klangen dabei genauso überzeugend wie bei den richtigen Fakten!

Mini-Check (1/2)

Du nutzt KI für ein Schulreferat und sie nennt dir eine Studie der Universität München von 2023. Was tust du?

🍪

Datenschutz

Diese Seite speichert deinen Lernfortschritt ausschließlich lokal in deinem Browser. Für den KI-Chat werden deine Nachrichten an einen KI-Dienst gesendet, aber nicht gespeichert. Es werden keine persönlichen Daten gesammelt, keine Tracking-Cookies gesetzt und keine externen Ressourcen geladen.

Datenschutzerklärung