Bbabo NET

Wissenschaft & Technologie Nachrichten

Umfrage: Menschen haben Schwierigkeiten, mit dem neuronalen Netzwerk Sora erstellte Videos von echten zu unterscheiden

HarrisX-Forscher führten eine Umfrage unter Amerikanern durch, um herauszufinden, ob Menschen generierte Videos von echten unterscheiden können. Es stellte sich heraus, dass die Mehrheit der Befragten in fünf der acht gezeigten Videos Fehler machte.

Das Unternehmen führte die Umfrage zwischen dem 1. und 4. März in den Vereinigten Staaten durch. Mehr als tausend Menschen haben es geschafft, daran teilzunehmen. Für das Video verwendeten die Forscher vier Videos aus dem neuronalen Netzwerk Sora und ebenso viele, die von Menschen mit der Kamera aufgenommen wurden. Den Befragten wurden die Videos in zufälliger Reihenfolge gezeigt. Sie mussten antworten, ob das Video von einer Person aufgenommen oder von einem neuronalen Netzwerk erstellt wurde.

Es wird festgestellt, dass in fünf von acht Fällen die Befragten eine falsche Antwort gaben. Interessanterweise wurden Soras detailreiche Videos oft mit der Realität verwechselt. Ein Video mit Luftaufnahmen der Küste von Big Sur in Zentralkalifornien wurde in 60 % der Fälle als von einer Person aufgenommen angesehen. Tatsächlich stammt dieses Filmmaterial aus der offiziellen Präsentation des maschinellen Lernmodells von Sora.

Die Gesamtgrafik der Ergebnisse zeigt, dass Menschen Schwierigkeiten haben, generierte Videos von echten zu unterscheiden und häufig falsche Antworten geben. Nach den Fragen wurde den Befragten mitgeteilt, welche Videos vom neuronalen Netzwerk erstellt wurden. Von allen Befragten gaben 2 % an, dass ihnen dieser Umstand Angst machte und 18 % waren alarmiert. Andere berichteten von Neugier, Überraschung oder vagen Gefühlen.

Ende Februar 2024 stellte OpenAI den KI-Videogenerator Sora vor, der Videos auf Basis von Textbeschreibungen erstellt. Auf der offiziellen Website veröffentlichte das Unternehmen Beispiele für die Funktionsweise des neuronalen Netzwerks, stellte es jedoch noch nicht zur Verfügung. OpenAI-Vertreter sagten, dass Videos von Sora sich als sehr realistisch herausstellten, daher arbeitet das Projektteam nun an einer Methode, die dabei helfen soll, generierte Videos schnell zu identifizieren. Dies werde nach Angaben des Unternehmens dazu beitragen, die Verbreitung von Fälschungen zu verhindern.

Umfrage: Menschen haben Schwierigkeiten, mit dem neuronalen Netzwerk Sora erstellte Videos von echten zu unterscheiden