A clareza dos textos gerados por ferramentas como o ChatGPT, da OpenAI, não pode ser confundida com um real entendimento das máquinas sobre os temas. "É como um papagaio: eles são capazes de reproduzir a linguagem, mas não de pensar sobre o que estamos pedindo", compara a professora MIT, Pattie Maes.
Especialista em inteligência artificial, Maes é fundadora do grupo de pesquisa sobre interfaces fluidas do Media Lab, um dos mais conceituados centros de pesquisa de alta tecnologia do mundo. Ela estuda maneiras de aprimorar habilidades cognitivas como o pensamento crítico e a comunicação através do uso de máquinas.
O ChatGPT já alcançou sozinho mais de 100 milhões de usuários no mundo todo e colocou a inteligência artificial geracional no centro do debate global. Escolas e universidades discutem como impedir que alunos usem a ferramenta para elaborar trabalhos inteiros ou passar em exames, autores de textos e imagens questionam como deveriam ser remunerados pela plataforma e há cientistas pedindo pela regulamentação da inteligência artificial.
"É bastante preocupante que essas tecnologias estejam sendo amplamente disponibilizadas sem termos primeiro uma discussão aprofundada sobre seus impactos e a definição de uma regulamentação", diz Maes.
Em entrevista à Folha de S.Paulo, a pesquisadora falou sobre o potencial da inteligência artificial generativa, seus pontos falhos e revelou resultados de experimentos que deixam claros os desafios que a sociedade terá pela frente.
**PERGUNTA - A chefe de tecnologia da OpenAI, criadora do ChatGPT, Mira Murati, defende a regulamentação da inteligência artificial. Você acha que esse é o caminho?**
PATTIE MAES - Sim, apenas os governos serão capazes de fazer com que todas as empresas sigam as mesmas regras para o desenvolvimento de serviços que utilizem inteligência artificial. Existe uma cultura muito forte aqui nos Estados Unidos de deixar que o mercado encontre as melhores práticas e se autorregule. Eu não acho que esse seja o melhor caminho para IA. Pegando como exemplo a OpenAI: na falta de uma regulamentação, eles estão tentando desenvolver maneiras de aumentar a precisão de seus resultados e reduzir risco de respostas enviesadas, mas quem garante que isso é suficiente? Ou que outras empresas, grandes e pequenas, sigam os mesmos protocolos?
**P.- Mas é possível imaginar que uma legislação desse tipo seja discutida e aprovada com a velocidade necessária? A União Europeia espera chegar a um consenso sobre as regras de uso da IA até o começo de março para depois tentar aprovar o texto ainda em 2023. O congresso americano ainda está formando um grupo de especialistas para educar seus integrantes...**
PM- A União Europeia tende a ser mais rápida e mais rigorosa, basta tomar como exemplo a maneira como eles lidam com as redes sociais. Eu acho que os governos precisam propor uma regulamentação, o que não significa que eles vão fazer isso. Ao contrário do que se imagina, uma boa regulamentação beneficia até mesmo as grandes empresas que estão interessadas em explorar a tecnologia. Elas têm muito mais a perder do que startups que podem sair testando conceitos com um risco reputacional muito baixo. A regulamentação faz com que todos tenham que trabalhar dentro de regras e o usuário final acaba recebendo um serviço melhor.
**P.- Quais são as suas maiores preocupações com as ferramentas geradoras de texto, como ChatGPT?**
PM- Eu tenho várias preocupações, especialmente relacionadas à maneira como as pessoas consomem conteúdo hoje. Essas ferramentas vão tornar ainda mais fácil a produção não de uma, mas de milhares de notícias falsas, com múltiplas versões do mesmo conteúdo. Vai ser mais fácil criar milhares de perfis falsos que depois vão influenciar as pessoas a tomarem decisões equivocadas. O uso massivo da internet como fonte de consulta de informações já fez com que não existisse mais uma ideia clara de verdade. Essa tecnologia vai degradar ainda mais esse cenário, porque a internet vai ser inundada por muito mais lixo travestido de conteúdo sério, convincente. Nós estamos fazendo uma série de experimentos para entender como as pessoas estão consumindo conteúdo produzido ou recomendado por inteligência artificial e os resultados são bastante preocupantes. Os usuários deixam de pensar sobre o assunto por eles mesmos, eles são menos críticos quando a inteligência artificial está dizendo que algo é verdade ou não, especialmente quando o sistema gera uma explicação elaborada.
**P.- E os textos gerados pela inteligência artificial estão chamando a atenção justamente por serem bem escritos. Vocês já fizeram algum estudo comparando a aceitação de textos feitos pela IA e humanos?**
PM- Nós apresentamos para grupos de pessoas duas respostas para uma questão de saúde; a primeira escrita por médicos e a segunda obtida através de GPT-3 (tecnologia de geração de texto programada também pela OpenAI). Sem saber quem tinha escrito a resposta, as pessoas acabaram preferindo a explicação dada pela inteligência artificial. Elas diziam que a resposta parecia de melhor qualidade, com recomendações mais claras e convincentes. No entanto essa habilidade de escrita não pode ser confundida com um entendimento verdadeiro de qualquer que seja o assunto. Eu costumo brincar nas minhas palestras dizendo que nós deveríamos usar um papagaio como logotipo para esses aplicativos. Assim a gente lembraria que eles são capazes de reproduzir a linguagem na qual foram treinados, mas não de pensar sobre o que estamos pedindo para eles fazerem.
**P.- Falta então uma consciência maior do usuário acerca do que a inteligência artificial é capaz de fazer agora, das suas limitações?**
PM- Certamente. As empresas precisam ser mais claras quanto a essas limitações e precisamos investir mais e mais em educação sobre o uso dessas ferramentas. É como fazemos com os alunos nas escolas que estão pesquisando conteúdo na internet, os cuidados são os mesmos. É necessário explicar como esses modelos funcionam, quais são os pontos falhos, de modo que as pessoas não assumam que tudo o que aparece ali está correto. Nós fizemos um experimento apresentando o ChatGPT de maneira bastante distinta para dois grupos de pessoas: para o primeiro, dissemos que eles iriam usar um sistema bastante eficiente e que os ajudaria a pesquisar temas de modo muito seguro. Para o segundo, em oposição, dissemos que o sistema tinha muitas falhas e que apresentaria informações incorretas. Os dois grupos interagiram com a ferramenta de maneira completamente diferente. O segundo foi muito mais criterioso ao consumir o conteúdo gerado pela inteligência artificial.
**P.- Apesar dessas limitações que você está apresentando já existe uma corrida para aplicar ferramentas como ChatGPT em serviços de busca. Microsoft e Google.
PM- Baidu são apenas três exemplos. O que podemos esperar para o futuro dos serviços de busca?**
Se esses modelos conseguirem efetivamente aumentar a precisão das suas respostas, eu realmente acredito que eles podem revolucionar as ferramentas de busca. As pessoas poderiam finalmente obter respostas de maneira mais rápida, ao invés de receberem como resultado uma série de links, alguns deles patrocinados, o que faz com que se perca bastante tempo até chegar à resposta que se estava buscando. Mas acho que a aplicação desses modelos de IA com serviços de busca vai ser considerada apenas como um experimento por mais um bom tempo, até que as empresas tenham um entendimento mais claro sobre os seus eventuais benefícios. Eu vejo isso como uma aposta alta de empresas como a Microsoft para tentar entrar em um mercado que é dominado pelo Google.
**RAIO-X**
Pattie Maes, 61, professora do programa de Mídia, Artes e Ciências do MIT e responsável pelo departamento de pesquisa em interfaces fluidas. É formada em ciências da computação com doutorado em inteligência artificial pela Universidade Vrije de Bruxelas e editou três livros. Além da pesquisa acadêmica, Pattie Maes é co-fundadora de diversas empresas como a FireFly Networks (adquirida pela Microsoft) e é conselheira de empresas de tecnologia como a Erable e Spatial.