A Inteligência Artificial está ficando melhor e melhor escrevendo material convincente, e isso está levando seus criadores a se perguntarem se deveriam lançar a tecnologia. A empresa OpenAI, ligada a Elon Musk desenvolveu um algoritmo que pode gerar notícias falsas sobre qualquer assunto parecidas com notícias reais, usando apenas um punhado de palavras como ponto de partida.
O algoritmo foi originalmente concebido como uma IA de linguagem generalizada que poderia responder a perguntas, resumir histórias e traduzir textos, mas os pesquisadores logo perceberam que ela poderia ser usada para propósitos muito mais sinistros, como bombear a desinformação em grandes volumes.
Como resultado, a equipe planeja disponibilizar uma versão simplificada de sua IA ao público, para evitar a automatização da produção de fakenews, de acordo com a MIT Technology Review.
A tecnologia felizmente tem algumas arestas no momento. Ela frequentemente escreve histórias que são plagiadas ou são pouco coesas, no entanto, Jack Clark, da OpenAI, alertou que pode levar apenas um ou dois anos até que haja um sistema capaz de produzir de forma confiável notícias falsas que precisem de uma verificação aprofundada dos fatos para serem desmentidas.
E esse é o problema central. Enquanto a OpenAI está focada em implementações éticas e não habilita conscientemente notícias falsas, ela é apenas uma organização. Há uma preocupação maior de que uma empresa inescrupulosa ou um governo autoritário possa desenvolver uma IA poderosa que dissemine mentiras em larga escala.
As redes sociais têm tido algum sucesso em combater notícias falsas, mas podem ter dificuldades se houver uma enxurrada de desinformação gerada por máquinas.