Desenvolvedores de algoritmos de geração de fake news planejam lançá-lo para o público

fake news inteligencia articial

Com a inteligência artificial agora capaz de criar fake news convincentes que podem enganar as pessoas em grande escala, os cientistas têm uma nova tarefa: criar algoritmos que possam impedir que essas notícias se espalhem pela internet. Segundo TechnoWize, uma equipe de pesquisadores da Universidade de Washington desenvolveu uma nova ferramenta que pode ser útil para domar potenciais danos causados ​​por notícias falsas geradas pela IA, que geralmente são baseadas em manchetes escabrosas.

Referido como GROVER, o sistema pode detectar e escrever artigos fake news e enganosas que são ainda mais convincentes do que artigos escritos por humanos, de acordo com o relatório de pesquisa publicado no ArXiv.

Os pesquisadores descobriram que o algoritmo – “discriminadores” – pode classificar notícias neurais falsas daquelas escritas por seres humanos, incluindo se são falsas ou não, com 73 por cento de precisão, se alimentadas com um nível moderado de dados de treinamento. “Contraintuitivamente, a melhor defesa contra Grover acaba por ser Grover em si, com 92 por cento de precisão”, escreveram os pesquisadores na publicação.

Em suma, GROVER é uma ferramenta definitiva para detectar fake news escritas por inteligência artificial. No entanto, se nas mãos erradas, o sistema poderia bagunçar a internet com desinformação e propaganda perigosa.

AI GROVER estará disponível para o público

Ao contrário da equipe do OpenAI que rejeitou as chances de lançar a versão completa do seu GPT-2, um sistema similar, os desenvolvedores da GROVER anunciaram em suas pesquisas que lançariam o sistema para o público. Além de detectar se há um jogo sujo em um artigo de notícias, o algoritmo também pode analisar outros aspectos, ao contrário de outras ferramentas, como nome do autor, nome da publicação, manchete e outros detalhes. Mas e se chegar às mãos erradas?

A GROVER pode detectar facilmente uma notícia com informações falsas, escrita nos estilos distintos de agências de notícias específicas, como o New York Times, o Washington Post, a Wired e o TechCrunch, com base em demonstrações do estudo. Segundo o estudo, os artigos escritos pela GROVER convenceram as pessoas mais do que aquelas escritas por humanos.

Em um exemplo, a equipe usou o GROVER para gerar uma manchete, nome do autor e a abertura de uma reportagem ligando autismo e vacinas ao governo federal e à UC San Diego, usando o estilo de redação da seção de ciência do The New York Time. Da mesma forma, os pesquisadores demonstraram como o GROVER pode combinar seu estilo de escrita com uma publicação específica simplesmente refinando sua saída. O sistema foi alimentado com uma manchete sobre vacinas causadoras de autismo e pediu para combinar com a manchete com o estilo da Wired. No resultado, o GROVER escreveu um artigo completo usando o título e o refinou para parecer um artigo que poderia ser publicado pela Wired.

Os pesquisadores reconheceram que o GROVER seria perigoso se divulgado ao público, mas manteve o melhor movimento para evitar a disseminação de notícias falsas geradas pela IA, incluindo aquelas geradas pela GROVER.

O movimento ainda parece arriscado no sentido de que o algoritmo pode ser modificado ou avançado por indivíduos com planos de usar o sistema para notícias falsas. Isso significa que os desenvolvedores têm todas as respostas para todos os possíveis avanços e ajustes que poderiam ser feitos no GROVER?

Espero que tenha gostado e para saber mais sobre notícias relacionadas acesse a YMDA News!

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *