Motor de Voz da OpenAI Pode Clonar Vozes Humanas em Apenas 15 Segundos de Áudio: Lançamento Adiado por Medo de Abuso durante Eleições

A OpenAI anunciou ter desenvolvido uma ferramenta capaz de clonar vozes humanas a partir de apenas 15 segundos de áudio gravado — mas ainda não a lançou publicamente por temores de que seja mal utilizada, especialmente durante as eleições de 2024.

Chamado de Motor de Voz, o software foi desenvolvido pela primeira vez em 2022 e integrado ao recurso de texto para fala do ChatGPT.

Entretanto, a partir do final de 2023, a OpenAI “começou a testá-lo de forma privada com um pequeno grupo de parceiros confiáveis”, afirmou a gigante de inteligência artificial em um post em seu blog, noticiado anteriormente pelo The Guardian.

A empresa afirmou ter ficado “impressionada” com as aplicações do Motor de Voz, que incluíram fornecer assistência de leitura para não leitores, servir como ferramenta educacional para crianças e traduzir conteúdo.

Em um dos casos mais impressionantes, pesquisadores do Instituto de Neurociências Norman Prince em Rhode Island usaram um clipe de áudio de má qualidade, de 15 segundos, de uma jovem dando uma apresentação na escola, que desde então perdeu a voz devido a um tumor cerebral vascular, para “restaurar” sua fala.

No entanto, a OpenAI ainda não lançou o Motor de Voz para o público em geral devido a “riscos sérios, especialmente em ano de eleições”, segundo o post do blog.

“Estamos optando por apresentar, mas não lançar amplamente essa tecnologia neste momento”, disse a OpenAI, “para fortalecer a resiliência da sociedade contra os desafios trazidos por modelos generativos cada vez mais convincentes.”

Não ficou imediatamente claro quando a OpenAI lançaria o Motor de Voz em uma escala maior, embora no futuro próximo tenha afirmado: “Encorajamos medidas como a eliminação da autenticação baseada em voz como medida de segurança para acessar contas bancárias e outras informações sensíveis.”

“Esperamos iniciar um diálogo sobre o uso responsável de vozes sintéticas e como a sociedade pode se adaptar a essas novas capacidades”, acrescentou a OpenAI. “Com base nessas conversas e nos resultados desses testes em pequena escala, tomaremos uma decisão mais informada sobre se e como implantar essa tecnologia em grande escala.”

Já o uso de IA tem incentivado desinformação, incluindo quando uma imagem deepfake de Donald Trump resistindo à prisão enquanto sua esposa Melania gritava com a polícia se tornou viral.

Como resultado, o Google atualizou sua política no ano passado para exigir que “todos os anunciantes eleitorais verificados” “divulguem proeminente” quando seus anúncios usam IA. No entanto, a OpenAI não seguiu o exemplo.

A startup sediada em São Francisco, no entanto, assegurou em seu post no blog que seus parceiros com acesso exclusivo ao Motor de Voz concordaram com políticas de uso que proíbem a impersonificação de outra pessoa ou organização sem consentimento ou direito legal.

“Estamos colaborando com parceiros dos EUA e internacionais de diversos setores, como governo, mídia, entretenimento, educação, sociedade civil e outros, para garantir que estejamos incorporando seus feedbacks enquanto construímos”, assegurou a OpenAI.

Representantes da OpenAI se recusaram a comentar além do post no blog da empresa.