Fünf Wecker zeigen viertel nach drei an.

Fehler:

  • Anzahl der Wecker stimmt oft nicht.
  • Kaum ein Wecker zeigt die richtige Uhrzeit an.
  • Die meisten Wecker zeigen zehn nach zwei an.
Fünf digitale Wecker zeigen 3:15 an.

Fehler:

  • Die Anzahl der Wecker stimmt auch hier meist nicht.
  • Die richtige Uhrzeit kommt zwar vor, bleibt aber die Ausnahme.
  • Es werden unmögliche Uhrzeiten wie 33:35 angezeigt.
  • Es werden Ziffern angezeigt, die es nicht gibt.
Eine Schachpartie in der Draufsicht.

Fehler:

  • Die Anzahl der Felder auf dem Schachbrett stimmen oft nicht.
  • Die Anzahl und Anordnung der Figuren ist in fast allen Fällen sinnlos.
  • Kuriose Fehler: Runde Schachbretter, diagonal angeordnete Felder, benachbarte Felder in derselben Farbe.
  • Bei machen Figuren ist nicht klar, um welche es sich handelt.
Eine Tafel, auf der die Gleichung 3 * 3 = 9 geschrieben steht.

Fehler:

Wir sehen zwar eine Tafel, auf der Zahlen und mathematische Zeichen stehen, auch die Zahlen 3 und 9 kommen häufig vor. Aber kein einziges mal sehen wir die korrekte Gleichung. 

Eine Tafel, auf der einige Primzahlen geschrieben stehen.

Fehler:

Auf den Tafeln ist alles mögliche zu sehen, unter anderem auch Primzahlen. Aber die Anordnung ergibt keinen richtigen Sinn.

Eine Tafel, auf der einige Namen von Früchten angeschrieben stehen.

Fehler:

  • In vielen Fällen sehen wir unlesbares Gekritzel oder Namen von Früchten, die es nicht gibt.
  • Es gibt Zuordnungen zwischen gezeichneten Früchten und deren Namen, die nicht korrekt sind.
  • Midjourney hat echte Früchte ins Bild gebracht, zum Teil an der Tafel besfestigt.
Gründe für die Fehler

Fehlendes konzeptionelles Verständnis

Bildgeneratoren wie MidJourney oder DALL·E haben kein abstraktes Verständnis von "Uhrzeiten", "Primzahlen", "Schachregeln" oder "korrekten Gleichungen". Stattdessen erzeugen sie Bilder basierend auf Wahrscheinlichkeiten, die aus großen Trainingsdaten abgeleitet wurden. Sie haben also zum Beispiel gelernt, dass Wecker Ziffernblätter haben und dass darauf Zeiger oder digitale Zahlen vorkommen, aber sie haben keine systematische Regel dafür, wie Uhrzeiten genau dargestellt werden.

„Fünf Wecker zeigen viertel nach drei“ führt zu Fehlern, weil das Modell nicht wirklich weiß, was „viertel nach drei“ bedeutet. Es generiert stattdessen Ziffernblätter mit zufälligen, aber plausibel wirkenden Zeigern. Weil „zehn nach zwei“ häufiger in den Trainingsdaten vorkam, wird das Modell diese Uhrzeit bevorzugen.

Schwäche beim Zählen und bei Mengenangaben

Künstliche Neuronale Netze haben Schwierigkeiten mit dem Zählen. Sie können zwar einzelne Elemente generieren, aber sobald eine bestimmte Anzahl gefordert ist (z. B. „5 Wecker“ oder „64 Schachfelder“), kommen oft zu viele oder zu wenige Objekte heraus. Die KI Anwendungen generieren Bilder als Ganzes und nicht schrittweise auf Basis eines zählenden Mechanismus. Es gibt keine exakte Regel in den Trainingsdaten, die dem Modell sagt: „Stoppe bei genau fünf Weckern“ oder „Male genau 64 Felder“. Daher sieht man oft Bilder mit falschen Mengen (z. B. 3 oder 7 Wecker statt 5).

Schwächen bei symbolischer und mathematischer Konsistenz

Modelle haben kein echtes Verständnis von Mathematik oder korrekter Symbolik. Das betrifft Gleichungen (z. B. „3 * 3 = 9“) ebenso wie Primzahlen und selbst simple Buchstabenkombinationen.

Eine Tafel mit „3 * 3 = 9“ könnte zwar eine ähnliche Struktur wie in Trainingsdaten enthaltene Gleichungen haben, aber das Modell kann keine echte Berechnung durchführen. Es erzeugt stattdessen eine Mischung aus Zahlen und Symbolen, die oft keinen Sinn ergeben.

Ähnlich ist es bei Primzahlen: Das Modell hat vielleicht einige Primzahlen in Trainingsdaten gesehen, aber es kann keine Regel anwenden, um sie korrekt zu generieren.

Fehlerhafte Textgenerierung

Bildgeneratoren erzeugen Text pixelweise als Teil des Bildes, nicht als sinnvolle Zeichenkette. Einzelne Buchstaben und Zahlen sind in Trainingsdaten oft verzerrt oder variabel dargestellt, wodurch das Modell keine perfekte Rekonstruktion lernen kann. Ddurch entstehen dann Fehler wie falsche Zeichen, unmögliche Uhrzeiten (z. B. „33:35“) oder unleserliche Schriftzüge.

Fehlendes Regelverständnis bei Schach und anderen Spielen

Das Modell „weiß“ nicht, dass ein Schachbrett immer 64 Felder haben muss, kennt die Schachregeln nicht und kann ensprechend auch keine "sinnvollen" Stellungen generieren. Stattdessen versucht es, optisch ähnliche Strukturen zu erzeugen. Auch kuriose Fehler wie runde Schachbretter oder falsch angeordnete Felder entstehen, weil das Modell Schach als eine lose Ansammlung von Formen und Strukturen „sieht“ – ohne Regelverständnis.

Vermischung mit realistischen Objekten

Wenn das Modell eine Tafel mit Fruchtnamen generieren soll, könnte es aus Trainingsdaten gelernt haben, dass Früchte oft mit ihren Namen dargestellt werden. Dadurch kann es passieren, dass echte Früchte in das Bild integriert werden, obwohl nur die Namen gefragt waren.

Zuletzt geändert: Freitag, 31. Januar 2025, 07:23