A paixão pela inteligência artificial e os riscos implícitos

Data: 16/02/2024

Como o sistema fala exatamente o que se quer ouvir, existe o risco de concordar com as visões distorcidas do mundo (visões racistas ou homofóbicas) de quem está do outro lado

Ela chegou não faz muito tempo, mas já tem gente se apaixonando pela inteligência artificial, o que não surpreende o professor Luli Radfahrer, para quem isso já era de se esperar, em função de tantas pessoas carentes. “A bolha de conteúdo das mídias sociais faz com que o indivíduo fique cada vez mais cercado de pessoas que só falam o que ele quer ouvir e a inteligência artificial, do jeito que ela é feita hoje, principalmente na forma dos sistemas massivos de linguagem, como o ChatGPT, fala exatamente o que a pessoa quer ouvir”.

De acordo com o colunista, a maior parte desses serviços de Chat é um grande ‘autocompletador’. “Ele não pensa, ele só repete aquilo que você quer ouvir, não tem consciência, só completa frases. Esses produtos, como o GPT-3, GPT-4, são em essência grandes volumes de textos, que pegam conteúdos como as frases costumam ser completadas e vão completando”. Funciona como quando alguém escreve algumas palavras no celular e o teclado começa a formular a próxima palavra que se pretende clicar. “Imagina isso de uma forma gigantesca, que ele comece a escrever longas frases para você. É exatamente isso e, portanto, ele só vai falar aquilo que você está acostumado a falar e o que você quer ouvir”.

De todo modo, Radfahrer adverte que isso pode ser muito perigoso. “Você pode ter um computador que, na imagem das pessoas, é perfeito, concordando com você, com suas visões mais tortas do mundo: visões racistas, sexistas, homofóbicas. É extremamente perigoso e pode aumentar o nível de polarização que a gente já tem hoje nas mídias sociais”.

Fonte: Jornal da USP

Sugestões de leitura