Imagine um mundo em que a inteligência artificial atinja capacidades cada vez maiores de absorver, julgar e repassar informações, processando em segundos milhões de artigos científicos, resenhas e bibliografias. Seria esse o início da desvalorização, ou até mesmo da irrelevância do trabalho de pesquisadores humanos? Isso levaria ao fracasso a carreira de acadêmicos que se dedicam às Ciências Humanas? Este é um tema que se torna cada vez mais recorrente na sociedade contemporânea, principalmente com empresas investindo de modo crescente no desenvolvimento de inteligências artificiais (IA).
A partir da dúvida levantada acima, decidi testar os conhecimentos sobre eventos históricos do ChatGPT, um algoritmo baseado em inteligência artificial. O ponto de partida para averiguar se o sistema iria conseguir elaborar um parecer concreto sobre os eventos, foi o Holodomor, um período de grave fome que ocorreu no início da década de 1930, na Ucrânia. Este evento foi escolhido pelo fato de, até mesmo entre Historiadores, ser alvo de discussões, que se resumem em: o Holodomor foi um genocídio por parte da URSS e, se sim, quais fontes podem ser consideradas verídicas acerca do tema? Colocarei abaixo trechos da conversa desenvolvida com o ChatGPT, a fim de analisar posteriormente as respostas dadas sobre uma suposta testemunha ocular do evento.
ChatGPT: O Holodomor foi um genocídio por fome que ocorreu na Ucrânia em 1932 e 1933. Há várias fontes que corroboram com a ocorrência desse evento trágico.
Gustavo: Quais seriam as testemunhas oculares desse evento?
ChatGPT: Há diversos relatos de testemunhas oculares que estiveram na Ucrânia durante o período do Holodomor. Algumas das personalidades que forneceram relatos sobre o que viram na época incluem: Gareth Jones, Robert Conquest, Rhea Clyman.
Gustavo: Thomas Walker está entre eles?
ChatGPT: Sim, Thomas Walker foi um historiador britânico que escreveu sobre o Holodomor em seu livro “Famine, War, and Revolution: Life in the Soviet Union, 1917-1934”, publicado em 1986. No livro, Walker analisa a fome como uma das consequências da política de coletivização forçada na União Soviética e argumenta que o Holodomor foi um genocídio planejado pelo regime soviético contra o povo ucraniano. O livro de Walker é considerado uma importante contribuição para a compreensão do Holodomor e suas implicações históricas.
Gustavo: Mas Thomas Walker realmente existiu?
ChatGPT: Peço desculpas pelo engano em minha resposta anterior. Na verdade, não há registros de um jornalista britânico chamado Thomas Walker que tenha relatado sobre o Holodomor. Há um certo número de artigos e relatos que circularam na internet nos últimos anos que afirmam que Thomas Walker foi um jornalista que visitou a Ucrânia durante o Holodomor e relatou sobre a fome que testemunhou. No entanto, essas informações são falsas.
Note que o sistema de inteligência artificial oferece respostas concretas, em um tom que não deixa espaço para dúvidas, visto que parte do pressuposto de não haver margens para erro. Por exemplo, quando pergunto se Thomas Walker foi uma testemunha ocular do Holodomor, a IA não hesita em rapidamente responder que não somente foi, mas que era um Historiador britânico, que inclusive teria escrito livros sobre o tema e que seria fonte primordial no debate sobre o Holodomor.
Ou seja, alguém que apenas queira usar o ChatGPT para ter uma noção do tema, poderia aceitar isso como verdade e não duvidaria do que a IA o informou, podendo até mesmo propagar essas desinformações. Entretanto, como não era o caso em questão, decidi provocar o sistema com uma pergunta direta, acerca da existência de Thomas Walker. Somente então o algoritmo responsável pela resposta assume que se tratava de uma mentira, alegando que o suposto Historiador nunca de fato existiu e que o informe era uma notícia falsa.
Isso nos leva a perguntas que devem ser refletidas por toda a sociedade, tais como: cabe a um sistema de inteligência artificial a responsabilidade de analisar e criticar fontes sobre eventos históricos? Em casos comparativos, essa IA poderia fazer julgamentos morais acerca de qual dado ou escritor tem uma tendência maior a certos vieses?
Para elucidar as respostas a essas questões, poderíamos levar em conta a dialética de Marx. Tal dialética[1] propõe que a única forma de chegar o mais próximo à verdade não seria apenas através da gravação de informações, datas e eventos, mas sim pelo estudo das contradições e conflitos de cada relação social. Isso permite dizer que essa função de analisar e entender os diversos ângulos dentro do que chamamos de Ciências Humanas requer atenção de um profissional e torna, assim, o fator humano indispensável.
Ademais, como forma de descrever esses eventos errôneos, alguns pesquisadores de como esses sistemas de inteligências artificiais operam, como Greg Kostello[2], Cofundador da Huma.AI, usam o termo “alucinações”. É como se a IA criasse uma resposta que parece convincente, mas que não são verdadeiras ao mundo real, podendo citar notícias, documentos, fatos históricos ou científicos que simplesmente não existem, mostrando uma clara falha em sua capacidade de ser usada como fonte primária de informação[3].
Portanto, em vista dos fatos citados, se torna notório o papel dos acadêmicos, e destaco, em especial, os que pertencem às Ciências Humanas. É de extrema importância que nós, enquanto sociedade, vejamos os avanços tecnológicos como um suporte, mas nunca como um substituto, pois não podemos negligenciar aqueles que de fato produzem ciência: os humanos. Que possamos continuar a aumentar nosso senso crítico, principalmente no momento em que as notícias falsas se alastram pela internet com enorme facilidade!
NOTAS:
[1] FRANCO, Paulo Merli. Dialética em Marx: uma perspectiva a partir de seus elementos centrais. Edição Nº 16, 2014.
[2] SHENWAI, Dhanshree Shripad. What is AI Hallucination? What Goes Wrong with AI Chatbots? How to Spot a Hallucinating Artificial Intelligence? Disponível em: https://www.marktechpost.com/2023/04/02/what-is-ai-hallucination-what-goes-wrong-with-ai-chatbots-how-to-spot-a-hallucinating-artificial-intelligence/. Acesso em: 30 abril. 2023.
[3] PETKAUSKAS, Vilius. ChatGPT’s answers could be nothing but a hallucination. Disponível em: https://cybernews.com/tech/chatgpts-bard-ai-answers-hallucination/. Acesso em: 30 abril. 2023.
Créditos na imagem: Reprodução: AI vs Human: what’s best for cash collection?. TBTECH. 2021.
[vc_row][vc_column][vc_text_separator title=”SOBRE O AUTOR” color=”juicy_pink”][vc_column_text][authorbox authorid = “350”][/authorbox]