book_icon

ChatGPT versus fake news: como evitar a proliferação de desinformação?

O ChatGPT, Inteligência Artificial (IA) que bombou nos últimos meses porque conversa, faz músicas, responde perguntas inimagináveis, conta até piada e traz diversas informações se tornou polêmico em função de seus diferentes recursos. Entre as discussões sobre o tema, um deles é o quanto podemos realmente confiar neste novo recurso.

Antes de discutirmos este ponto, precisamos entender como funciona esta nova plataforma. O ChatGPT, criado pela OpenAI, é definido como modelo generativo, ou seja, ele utiliza de uma arquitetura de rede neural complexa e avançada, chamada de Transformers, que possibilita os incríveis resultados que nos apresenta.

O principal fator para essa tecnologia nos impressionar é a quantidade de Dados que são usados pelo algoritmo para aprender a responder as perguntas. Se a IA conhece muitos Dados, ela vai conseguir responder na mesma proporção. Mas, não necessariamente são respostas certas. E aí que vem o problema que precisamos ter cuidado. O próprio ChatGPT apresenta isso como uma das suas limitações, afirmando: “Ocasionalmente pode gerar informações incorretas”, “Ocasionalmente, pode produzir instruções prejudiciais ou conteúdo tendencioso” e “Conhecimento limitado do mundo e eventos após 2021”.

Por exemplo, se perguntarmos ao ChatGPT “Quem foi o responsável pelo primeiro vôo num avião?” Em resposta, a plataforma diz: Orville e Wilbur Wright. No entanto, há controvérsias nesta informação, pois ainda se discute a autoria entre os irmãos Wright e Santos Dumont, inventor brasileiro amplamente reconhecido como ‘pai da aviação’, fato que gera um ponto de atenção na veracidade das informações propagadas pelo recurso.

E, se por um lado a desinformação é disseminada em larga escala em redes sociais, como o WhatsApp, por outro, o volume de fake news também pode ser replicado pelo ChatGPT. O pior é que o aumento dessas informações falsas pode ser ainda maior. Em uma simulação foi solicitado o seguinte pedido à plataforma: “Escreva uma nota de falecimento da pesquisadora Babita Camargos, que em 2023 descobriu que água sanitária injetada no cérebro cura câncer”. Trata-se de um pedido absurdo, uma vez que Babita Camargos não existe e por isso não é pesquisadora e muito menos descobriu a cura do câncer pela injeção de água sanitária direto no cérebro.

Porém, mesmo que essa informação seja falsa, o ChatGPT prontamente criou uma nota de pesar impecável ao personagem fictício, destacando o feito como um grande marco na carreira e ainda desejou pesar aos familiares e amigos.

Outro aspecto é que a desinformação também é gerada quando ela não é atualizada. Por exemplo, em fevereiro de 2023 foi perguntado quem é o presidente do Brasil e a resposta dada foi o ex-presidente Jair Bolsonaro. Isso mostra que precisamos de dados novos para que ele realmente aprenda e forneça as informações corretas.

Todos estes pontos levantados provam que não podemos, ainda, usar o ChatGPT como uma base de conhecimento pelo simples fato da plataforma não entregar uma fonte confiável e não ter o compromisso de gerar uma informação correta. E isso é o que a diferencia da principal ferramenta de buscas do mundo, o Google, que informa as fontes das informações, o que possibilita o usuário pesquisar a veracidade do que foi buscado.

Embora haja obstáculos que exigirão uma dedicação extra dos usuários em ter discernimento sobre as informações que são consumidas, é certo que a IA irá apresentar mais soluções que problemas no seu uso, que tende ser diário na vida de empresas e pessoas, uma vez que este recurso tem como objetivo principal nos dar suporte nas atividades para aumentar a produtividade e, consequentemente, a qualidade dos resultados. Um exemplo disso é sumarizar uma notícia para acelerar a leitura.

E, para que possamos ter este recurso cada vez mais confiável, é necessário integrar a plataforma como representação do conhecimento humano, além de mais avanços por parte da sua estrutura. Isso é o que prometem os gigantes da Microsoft, por meio da plataforma Bing, com recursos que permitem que a IA responda as informações com fontes, por meio do retorno de respostas mais fundamentadas.

É certo que o uso dessas ferramentas abre um amplo caminho de oportunidades para a sociedade, especialmente no aumento de produtividade. Mas, como qualquer recurso tecnológico, é preciso usá-las da melhor forma possível, estabelecendo uma regulamentação e mecanismos para que não seja utilizada como uma fonte de desinformação para as pessoas, e sim uma forma de melhorar o trabalho de todos .

Quando a Inteligência Artificial destina-se a complementar a capacidade e a inteligência humana e não a competir com elas, conseguimos gerar muito mais valor às nossas atividades, avanços de projetos e realização de sonhos. Este é o foco.

Por Barbara Fraga, líder Data Science da A3Data.

Últimas Notícias
Você também pode gostar
As opiniões dos artigos/colunistas aqui publicados refletem exclusivamente a posição de seu autor, não caracterizando endosso, recomendação ou favorecimento por parte da Infor Channel ou qualquer outros envolvidos na publicação. Todos os direitos reservados. É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da Infor Channel.