An einem Thema scheint es dieser Tage kein Vorbeikommen zu geben: die Saga um die verschwundene Kate Middleton oder wie sie Anhänger der britischen Monarchie nennen: Prinzessin Kate. Für gehörige Aufregung sorgte dabei etwa vor einigen Tagen ein mit Photoshop dermaßen schlecht zusammengestöpseltes Familienfoto der Royals, dass es fast schon als Signal der Volksnähe interpretiert werden könnte.

KI ist keine Magie

Über all das wurden bereits viele Worte verloren, dass das Thema an dieser Stelle nun noch einmal aufgegriffen wird, hat aber einen durchaus guten Grund. Offenbart sich darin doch auch gut, wie unrealistisch die Erwartungen und wie stark der Glaube an schier magische Fähigkeiten von dem, was heutzutage als "Künstliche Intelligenz" bezeichnet wird, mittlerweile in breiten Teilen der Bevölkerung sind.

Doch worum geht es eigentlich: Vor wenigen Tagen ist ein Video "aufgetaucht", das Kate Middleton gemeinsam mit ihrem Ehemann, einem gewissen William Arthur Philip Louis Mountbatten-Windsor, beim zwanglosen Einkauf zeigen soll. Dass diese Aufnahme von ziemlich überschaubarer Qualität ist und somit reichlich Interpretationsspielraum dafür lässt, wer da wirklich zu sehen ist, feuerte wenig überraschend die Fantasie der bereits seit Monaten ermittelnden Internetdetektive in Sachen Kate nur weiter an, wie 404Media als Erstes berichtete.

Spurensuche mit viel Fantasie

An dieser Stelle wird es dann aber wieder aus einer technischen Sicht interessant: Im Bestreben, sich Klarheit über die zu sehenden Personen zu verschaffen, greifen viele davon zu Bild-KI-Tools, die versprechen, das zu tun, was Serien wie "CSI: Cyber" vor einigen Jahren noch zum Spott jeder technisch halbwegs informierten Person gemacht haben: die Verbesserung von Bildern mit niedriger Auflösung, um damit erkennen zu können, wer sich dahinter wirklich verbirgt.

Dass diese Ergebnisse dann durchaus ernsthaft und ziemlich aufgeregt in sozialen Medien diskutiert und analysiert werden, zeigt ein grundlegendes Missverständnis dieser Tools. Solche Ergebnisse sind purer Unsinn, sie mögen detaillierter aussehen als das Original, die hinzugefügten Informationen sind aber mehr oder weniger gut geraten.

Training ist alles

Der Grund liegt darin, wie solche Techniken aus dem Bereich des Maschinenlernens funktionieren: Die genutzten neuronalen Netze werden auf eine Unzahl von Bildern trainiert, um darin Muster zu erkennen. Fordert man nun so ein Tool dazu auf, ein verpixeltes Foto zu "verbessern", werden einfach die statistisch wahrscheinlichsten Pixel an jeder Stelle verwendet. Das kann für eine leichte Verbesserung von Bildern mit ausreichend vorhandenen Details noch ganz gut funktionieren, bei unklaren Aufnahmen geht es dann aber schnell in den Bereich der Fiktion.

All das sind auch keine neuen Erkenntnisse, bereits vor einigen Jahren sind die ersten Entpixelungs-Tools aufgetaucht und haben umgehend für Diskussionen über die Nutzung solcher Technologien gesorgt. Reproduzieren sie doch damit einfach das, worauf sie trainiert wurden, und damit auch sämtliche Vorurteile im Ausgangsmaterial.

Besonders eindrücklich war dabei das Beispiel eines Porträtfotos des ehemaligen US-Präsidenten Barack Obama. Zunächst verpixel und dann durch so ein KI-System geschickt, wurde daraus ein weißer Mann. Würde man das Originalbild nicht kennen, könnte man das Ergebnis des Tools für beeindruckend halten, in Wirklichkeit ist es aber natürlich Fiktion.

Ausblick

Anders gesagt: Wer auf diesen Bildern zu sehen ist, müssen sich die Fans der royalen Rätselrallye schon auf anderem Weg zusammenreimen – von der Frage, ob das überhaupt eine gute Idee ist, mal ganz abgesehen. Das Hochrechnen von Bildern mit KI wird jedenfalls bei der Klärung dieser Frage keine Hilfe sein. (apo, 20.3.2024)