Falsificar sons com IA é mais fácil do que parece. Especialista em cibersegurança deixa alerta

O antigo diretor executivo do Centro Nacional de Cibersegurança britânico Ciaran Martin alertou que é mais fácil falsificar um som do que um vídeo com Inteligência Artificial e que a comunicação social deve estar muito atenta. Falsificar sons com IA é mais fácil do que parece. Especialista em cibersegurança deixa alerta Freepik

"Não devia fazer publicidade a isto, 💥️mas é fácil descarregar programas que nos permitem colocar a voz de alguém e fazer um bom deepfake”, afirmou, durante uma palestra na Regent’s University em Londres.

💥️Já os vídeos, explicou, “é muito mais difícil [os falsos] porque não têm grande qualidade”, pelo que é mais fácil a jornalistas os identificarem através de “bom senso".

Na opinião do especialista, 💥️a comunicação social tem de ser responsável e atenta na forma como trata este tipo de informação.

Recentemente no Reino Unido o líder do Partido Trabalhista, Keir Starmer, e o presidente da Câmara Municipal de Londres, foram vítimas de áudios falsificados por Inteligência Artificial (IA).

No segundo caso, foi o próprio secretário de Estado da Administração Interna, Tom Tugendhat, que alertou para a situação e pediu nas redes sociais para que as pessoas e a comunicação social não os difundissem.

ONU alerta para elevado risco no uso indevido de inteligência artificial em ano de muitas eleições

Ver artigo

💥️"Pessoas hostis vão tentar interferir nas nossas eleições, mas não significa que sejamos impotentes”, afirmou Martin.

“Podemos confiar em organizações de comunicação social responsáveis, o que penso que tem sido preservado e mantido, e no consenso político, quando as pessoas dizem que vão tratar falsificações como um ataque à democracia”, vincou.

O que você está lendo é [Falsificar sons com IA é mais fácil do que parece. Especialista em cibersegurança deixa alerta ].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...