Bbabo NET

Икономика & Бизнес Новини

OpenAI разкрива и гласово клониране

В петък OpenAI разкри инструмент за клониране на глас, който планира да държи под строг контрол, докато не бъдат въведени предпазни мерки за предотвратяване на аудио фалшификати, предназначени да подмамят слушателите.

Модел, наречен "Voice Engine", може по същество да дублира нечия реч въз основа на 15-секундна аудио проба, според публикация в блог на OpenAI, споделяща резултати от малък тест на инструмента.

„Ние осъзнаваме, че генерирането на реч, която наподобява гласовете на хората, крие сериозни рискове, които са особено важни в година на избори“, каза базираната в Сан Франциско компания.

„Ангажираме се с американски и международни партньори от правителството, медиите, развлеченията, образованието, гражданското общество и извън тях, за да гарантираме, че включваме тяхната обратна връзка, докато изграждаме.“

Изследователите на дезинформация се опасяват от широко разпространена злоупотреба с базирани на AI приложения в ключова изборна година благодарение на разпространяващите се инструменти за клониране на глас, които са евтини, лесни за използване и трудни за проследяване.

Признавайки тези проблеми, OpenAI каза, че "предприема предпазлив и информиран подход към по-широко издание поради потенциала за злоупотреба със синтетичен глас".

Предпазливото разкриване дойде няколко месеца след като политически консултант, работещ за дългосрочната президентска кампания на съперник на Джо Байдън от Демократическата партия, призна, че стои зад автоматично обаждане, представящо се за лидера на САЩ.

Обаждането, генерирано от AI, рожба на агент на конгресмена от Минесота Дийн Филипс, включва нещо, което звучеше като гласа на Байдън, призоваващ хората да не гласуват на първичните избори в Ню Хемпшир през януари.

Инцидентът предизвика тревога сред експертите, които се страхуват от поток от дълбока фалшива дезинформация, задвижвана от AI, в надпреварата за Белия дом през 2024 г., както и в други ключови избори по света тази година.

OpenAI каза, че партньорите, тестващи Voice Engine, са се съгласили с правила, включително изискване на изрично и информирано съгласие на всяко лице, чийто глас е дублиран с помощта на инструмента.

Трябва също така да бъде изяснено на публиката, когато гласовете, които чуват, са генерирани от AI, добави компанията.

„Внедрихме набор от мерки за безопасност, включително воден знак, за да проследим произхода на всяко аудио, генерирано от Voice Engine, както и проактивен мониторинг на това как се използва“, казаха от OpenAI.

OpenAI разкрива и гласово клониране