Como gigantes da tecnologia estão se unindo para combater deepfakes

Youtube, Twitter, Facebook e Microsoft anunciaram políticas mais rígidas e novos projetos para eliminar conteúdos manipulados das redes

 

À medida que as eleições presidenciais dos Estados Unidos se aproximam, grandes empresas de tecnologia se uniram com um objetivo: combater a manipulação de informações. Nesta segunda-feira (3), o Youtube publicou em seu blog como tem aumentado seus esforços para se tornar uma fonte confiável de notícias e informações, principalmente em um período tão relevante para o país.

A empresa deixou claro que removerá da plataforma conteúdos tecnicamente manipulados, com informações falsas e outras práticas enganosas. Além disso, usuários que se passarem por outras pessoas ou que usarem sistemas para aumentar artificialmente o número de visualizações e comentários também serão banidos.

Para tornar isso possível, o Youtube tem investido em pesquisa e desenvolvimento. “Em 2018, formamos um Intelligence Desk para detectar novas tendências envolvendo conteúdo inadequado e comportamentos problemáticos e para garantir que nossas equipes estejam preparadas para resolvê-los antes que se tornem um problema maior”, escreveu a empresa.

O Youtube ainda introduziu abas como Top News e Breaking News na plataforma para destacar notícias de grandes veículos. “Continuamos comprometidos em manter o equilíbrio de liberdade e responsabilidade antes, durante e após as eleições nos EUA em 2020. Temos ainda mais o que compartilhar sobre esse trabalho nos próximos meses”, escreveu a empresa.

Combate à deepfake

Além do Youtube, outras empresas se posicionaram sobre como estão se preparando para identificar e eliminar conteúdos manipulados — ou deepfakes. O termo se refere ao uso de inteligência artificial para manipular imagens e vídeos inserindo elementos falsos.

Na terça-feira (4), o Twitter anunciou que as publicações na plataforma passarão por avaliações mais severas. Conteúdos editados de maneira suspeita ou que possam afetar a segurança pública e causar outros danos serão banidos. “Isso será um desafio e cometeremos erros ao longo do caminho – agradecemos a paciência. No entanto, estamos comprometidos em fazer isso da maneira certa” afirmou a empresa em um comunicado.

Já o Facebook anunciou, em janeiro deste ano, uma política mais rigorosa para controlar fotos e vídeos que possam engajar usuários. A plataforma terá uma equipe dedicada a identificar vídeos falsos e alertar os usuários no caso de conteúdos menos confiáveis. A empresa ainda lançou, em parceria com a Microsoft, um desafio global para combater deepfakes.

Os riscos da tecnologia

A deepfake ficou conhecida, principalmente, depois de um vídeo com um discurso falso do ex-presidente Barack Obama circular nas redes sociais. O conteúdo foi criado pelo site BuzzFeed para alertar a população sobre os riscos da tecnologia. Apesar de exigir softwares apropriados e conhecimentos em edição, o uso da técnica tem avançado e se popularizado.

Em 2019, diversos casos de deepfake ganharam destaque. Em um deles, a agência de notícias Associated Press identificou um perfil falso no LinkedIn criado com técnicas de inteligência artificial. Possíveis espiões desenvolveram um rosto hiper-realista de uma pessoa que não existe. O falso usuário tinha conexões com personalidades políticas de Washington.

No mesmo ano, o ZAO, aplicativo chinês que usa inteligência artificial para colocar o rosto dos usuários em cenas famosas de filmes vazou dados e imagens de milhões de usuários. O caso gerou repercussão depois de ser descoberta uma cláusula que dava aos desenvolvedores o direito de usar todas as fotos carregadas na plataforma por tempo indeterminado.

FONTE: STARTSE