Bbabo NET

Wissenschaft & Technologie Nachrichten

OpenAI stellt Tool zum Klonen von Stimmen vor

San Francisco – OpenAI hat am Freitag ein Tool zum Klonen von Stimmen enthüllt, das streng kontrolliert werden soll, bis Sicherheitsvorkehrungen getroffen sind, um Audiofälschungen zu verhindern, die darauf abzielen, Zuhörer zu täuschen.

Ein Modell namens „Voice Engine“ kann im Wesentlichen die Sprache einer Person basierend auf einer 15-sekündigen Audioprobe duplizieren, heißt es in einem OpenAI-Blogbeitrag, in dem Ergebnisse eines kleinen Tests des Tools veröffentlicht werden.

„Wir sind uns bewusst, dass das Erzeugen von Sprache, die den Stimmen der Menschen ähnelt, ernsthafte Risiken birgt, die im Wahljahr besonders groß sind“, sagte das in San Francisco ansässige Unternehmen.

„Wir arbeiten mit US-amerikanischen und internationalen Partnern aus den Bereichen Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und darüber hinaus zusammen, um sicherzustellen, dass wir ihr Feedback in unseren Aufbau einbeziehen.“

Desinformationsforscher befürchten einen grassierenden Missbrauch von KI-gestützten Anwendungen in einem entscheidenden Wahljahr dank der zunehmenden Verbreitung von Tools zum Klonen von Stimmen, die billig, einfach zu verwenden und schwer zu verfolgen sind.

OpenAI erkannte diese Probleme an und sagte, dass man „aufgrund der Möglichkeit eines Missbrauchs synthetischer Sprache einen vorsichtigen und fundierten Ansatz für eine breitere Veröffentlichung verfolgt“.

Die vorsichtige Enthüllung erfolgte einige Monate, nachdem ein politischer Berater, der für den langfristigen Präsidentschaftswahlkampf eines demokratischen Rivalen von Joe Biden arbeitete, zugegeben hatte, hinter einem Robocall zu stecken, der sich als der US-Führer ausgab.

Der von der KI generierte Aufruf, die Idee eines Mitarbeiters des Kongressabgeordneten Dean Phillips aus Minnesota, enthielt etwas, das wie Bidens Stimme klang, die die Menschen aufforderte, bei den Vorwahlen in New Hampshire im Januar keine Stimmzettel abzugeben.

Der Vorfall löste bei Experten Besorgnis aus, die eine Flut von KI-gestützter Deepfake-Desinformation im Rennen um das Weiße Haus 2024 sowie bei anderen wichtigen Wahlen rund um den Globus in diesem Jahr befürchten.

OpenAI sagte, dass Partner, die Voice Engine testen, Regeln zugestimmt haben, einschließlich der Anforderung einer ausdrücklichen und informierten Zustimmung jeder Person, deren Stimme mithilfe des Tools dupliziert wird.

Es müsse dem Publikum auch klar gemacht werden, wenn die Stimmen, die es hört, KI-generiert seien, fügte das Unternehmen hinzu.

„Wir haben eine Reihe von Sicherheitsmaßnahmen implementiert, darunter Wasserzeichen, um die Herkunft aller von Voice Engine generierten Audiodaten zu verfolgen, sowie eine proaktive Überwachung der Art und Weise, wie sie verwendet werden“, sagte OpenAI.

OpenAI stellt Tool zum Klonen von Stimmen vor