Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Consegue detetar notícias falsas criadas por IA? Estas são as TOP 15 notícias falsas geradas por IA em 2023

Consegue detetar notícias falsas criadas por IA? Estas são as TOP 15 notícias falsas geradas por IA em 2023
Share it:

Estudo Exclusive Networks e Netscope

Consegue detetar notícias falsas criadas por IA? Estas são as TOP 15 notícias falsas geradas por IA em 2023


A IA teve um enorme impacto no panorama noticioso em 2023. Entre notícias falsas sobre a IA e notícias falsas geradas por IA, os meios de comunicação social em todo o mundo - e os seus leitores - mostraram um enorme interesse por conteúdos falsos.

A Exclusive Networks e a Netskope classificaram as notícias falsas criadas por IA mais difundidas em 2023, até à data, com base nas visualizações sociais, envolvimento, artigos, alcance e autoridade, a fim de determinar o seu impacto em cada uma delas; e ainda investigaram até onde chegaram as histórias falsas mais virais nas publicações noticiosas e nas redes sociais, e quanto tempo demorou até que essas histórias fossem reveladas como falsas.

Os dados foram também comparados com um estudo que revela a falsa confiança que o público britânico e americano tem na sua capacidade de detetar histórias falsas.

 

As top 15 notícias falsas geradas por IA

O Vídeo de Hillary Clinton a apoiar Ron DeSantis, gerado por IA, e a imagem do Papa Francisco a usar um casaco branco de grandes dimensões, somaram mais de 840 milhões de visualizações, e de 20 milhões de visualizações, respetivamente. A imagem do papa foi referida por 312 publicações nos media.

Em destaque estão também as imagens falsas de Donald Trump a ser preso na baixa de Washington DC em março deste ano. Embora Donald Trump tenha sido preso mais tarde na vida real, estas imagens convincentes anteciparam a detenção e foram criadas pelo gerador de imagens de IA, Midjourney. Tornaram-se virais no X (Twitter), com mais de 10 milhões de visualizações, e foram cobertas por 671 publicações nos media - o dobro do número de publicações que cobriram a história do Papa.

Geradores de imagens com inteligência artificial (IA), como o DALL-E e o Midjourney, estão a ganhar popularidade e já conquistaram milhões de novos utilizadores até agora. Os programas de fácil utilização permitem que qualquer pessoa crie imagens através de instruções de texto, e os resultados são tão realistas que até os editores de notícias têm dificuldade em distinguir as imagens fictícias da realidade. Estas imagens falsificadas dominam o gráfico, com 14 em cada 15 histórias a serem conduzidas por elas.


Nota ainda para a única história que não é protagonizada por imagens geradas por IA: um drone com IA a matar o seu operador humano. Esta história foi a que registou maior cobertura - 1.689 artigos, e teve um alcance total combinado de 1,3 milhões.


As histórias falsas geradas por IA que demoraram mais tempo a ser corrigidas

É cada vez mais difícil detetar o que é real e o que é IA, por isso, acreditar numa história inventada é um erro cada vez mais frequente. Quais as notícias falsas que demoraram mais tempo a ser desmentidas?

Com base na data de publicação original, o tempo médio que demora uma história falsa sobre IA a ser corrigida é de 6 dias. Um vídeo editado por IA de uma entrevista noticiosa australiana com Bill Gates convenceu os editores durante mais tempo, 15 dias. O vídeo adulterado sugere falsamente que Gates terminou abruptamente uma entrevista com a jornalista Sarah Ferguson, da Australian Broadcasting Corporation (ABC) News, depois de ter sido questionado sobre o seu envolvimento na distribuição da vacina contra a COVID-19.

A história seguinte que demorou mais tempo a ser corrigida foi a simulação de um drone com IA a matar o seu operador humano. O tempo para esta correção foi prolongado devido ao atraso na resposta da Força Aérea, que afirmou que o incidente era hipotético.

As fotos do príncipe Harry e William juntos na coroação, geradas por AI, demoraram 12 dias a ser desmentidas. Imagens de uma nave espacial na Antártica demoraram 13 dias a ser desmentidas.

 

O público é capaz de detetar uma notícia falsa sobre IA?

De acordo com um estudo da Netscope e da Exclusive Networks, que questionou o publico norte-americano e inglês, as plataformas de maior confiança relativamente a notícias são os jornais. No entanto, as plataformas sociais baseadas em vídeo, como o TikTok e o Snapchat, ficaram em segundo lugar, demonstrando a sua enorme influência e a importância da regulação da desinformação nestas plataformas.

As plataformas tradicionais de redes sociais, como o Instagram, o Twitter e o Facebook, ficaram em último lugar.

Mais de 80% dos participantes no estudo do Reino Unido afirmaram estar confiantes em detetar uma notícia falsa. Os inquiridos nos EUA estavam ainda mais seguros das suas capacidades, com 88%. No entanto, quando lhes foi mostrada uma notícia falsa gerada por IA juntamente com uma verdadeira, 44% dos inquiridos do Reino Unido acreditaram que a história falsa era real. Esta percentagem foi ainda mais elevada para os cidadãos dos EUA, com metade a responder incorretamente.

 

Como detetar uma notícia falsa gerada por IA

Tente encontrar a fonte original da história

Se parecer improvável ou estranha, desconfie. Verifique primeiro a fonte. Se estiver nas redes sociais, os comentários podem conter informações sobre a sua origem. Para imagens, pode efetuar uma pesquisa inversa de imagens utilizando o Google Reverse Image Search, TinEye ou Yandex. A pesquisa pela origem pode revelar mais contexto e verificações de factos existentes por editores de confiança.

 

Notícias baseadas em imagens

Aumente a imagem e verifique se existem erros. Aumentar a imagem revelará má qualidade ou detalhes incorretos - ambos sinais reveladores de uma imagem gerada por IA.

Verifique as proporções da imagem. Um erro frequente nas imagens de IA são as proporções e quantidades de partes do corpo e outros objetos. Mãos, dedos, dentes, orelhas e óculos são frequentemente deformados e têm as quantidades erradas.

Há algo de estranho no fundo? Se uma imagem tiver sido alterada ou fabricada, os objetos utilizados no fundo estão muitas vezes deformados, utilizados várias vezes e com falta de detalhes.

A imagem tem um aspeto suave ou não tem imperfeições? Nas imagens com IA, certos aspetos que normalmente seriam muito detalhados são frequentemente suavizados e aperfeiçoados, como a pele, o cabelo e os dentes. Os rostos são impecáveis e os tecidos são demasiado harmoniosos.

As inconsistências na lógica da imagem podem ser um sinal revelador de algo gerado por IA. Talvez a coloração de algo tão pequeno como os olhos não corresponda em diferentes imagens, ou um padrão ligeiramente alterado.

Embora as imagens falsificadas já existam há tanto tempo como a fotografia, a facilidade de manipulação e de criação hoje oferecida pelas ferramentas digitais compromete significativamente a segurança. Atualmente, grupos políticos estão a utilizar imagens geradas por IA para influenciar a opinião pública, extorsão de dinheiro, segredos e informações críticas.

Share it:

info

Post A Comment:

0 comments: