Bbabo NET

Економіка і бізнес Новини

OpenAI також представляє клонування голосу

У п’ятницю OpenAI представила інструмент для клонування голосу, який він планує тримати під жорстким контролем, доки не будуть введені гарантії, щоб перешкоджати аудіопідробкам, призначеним для обману слухачів.

Модель під назвою «Voice Engine» може фактично дублювати чиюсь мову на основі 15-секундного аудіо зразка, згідно з дописом у блозі OpenAI, в якому опубліковано результати невеликого тестування інструменту.

«Ми усвідомлюємо, що створення мови, яка нагадує голоси людей, має серйозні ризики, які особливо важливі в рік виборів», — заявили в компанії, що базується в Сан-Франциско.

«Ми співпрацюємо з американськими та міжнародними партнерами з уряду, засобів масової інформації, розваг, освіти, громадянського суспільства та інших країн, щоб переконатися, що ми враховуємо їхні відгуки під час розробки».

Дослідники дезінформації побоюються масового зловживання додатками на основі штучного інтелекту в ключовий рік виборів завдяки поширенню інструментів клонування голосу, які дешеві, прості у використанні та важко відстежуються.

Визнаючи ці проблеми, OpenAI заявив, що «застосовує обережний та інформований підхід до ширшого випуску через можливість неправильного використання синтетичного голосу».

Обережне відкриття відбулося через кілька місяців після того, як політичний консультант, який працював на довгострокову президентську кампанію конкурента Джо Байдена від Демократичної партії, зізнався, що стоїть за автоматичним дзвінком, видаючи себе за лідера США.

Дзвінок, згенерований штучним інтелектом, задумом оперативника конгресмена Міннесоти Діна Філліпса, показав щось схоже на голос Байдена, який закликав людей не голосувати на праймеріз у Нью-Гемпширі в січні.

Інцидент викликав занепокоєння серед експертів, які побоюються потоку глибокої дезінформації на основі штучного інтелекту під час перегонів у Білий дім у 2024 році, а також під час інших ключових виборів по всьому світу цього року.

OpenAI повідомила, що партнери, які тестують Voice Engine, погодилися з правилами, включаючи вимогу явної та інформованої згоди будь-якої особи, чий голос дублюється за допомогою інструменту.

Глядачам також має бути зрозуміло, коли голоси, які вони чують, створені ШІ, додала компанія.

«Ми запровадили низку заходів безпеки, включаючи водяні знаки, щоб відстежити походження будь-якого аудіо, створеного Voice Engine, а також проактивний моніторинг того, як воно використовується», — повідомили в OpenAI.

OpenAI також представляє клонування голосу