terça-feira, 28 de fevereiro de 2023

ChatGPT na ciência.

 ARTIGO    /   CULTURA    /   CHATGPT NA CIÊNCIA: AS MARAVILHAS E AS AMEAÇAS

ChatGPT na ciência: as maravilhas e as ameaças

A ferramenta de inteligência artificial tornou-se famosa e foi desde logo utilizada por alguns cientistas. Mas a sua utilização implica também muitos riscos. Por Alessandra Monterastelli.
Imagem criada através de Inteligência Artificial pelo site Dall-E da empresa OpenAI. Fonte: Outras Palavras.
Imagem criada através de Inteligência Artificial pelo site Dall-E da empresa OpenAI. Fonte: Outras Palavras.

Já há cientistas que usam o ChatGPT, a nova ferramenta de Inteligência Artificial (IA) desenvolvida no final de 2022. A tecnologia é um chatbot – um programa com capacidade de entender e redigir textos, simulando um diálogo humano – que tem vindo a chamar a atenção devido à capacidade impressionante de compreensão e articulação das suas respostas. O ChatGPT é a melhoria da linguagem conhecida como GPT-3, IAs classificadas como Large Language Models (LLM) e foi desenvolvido pela OpenAI, empresa norte-americana sem fins lucrativos que conduz pesquisas envolvendo inteligência artificial.

Em dezembro, apenas um mês após o seu lançamento, a ferramenta já começou a ser testada por cientistas e investigadores. Entrevistados pela revista Nature(link is external), os biólogos computacionais Casey Greene e Milton Pividori, da Universidade da Pensilvânia, na Filadélfia, testaram o novo chatbot como assistente. Os resultados foram impressionantes: sugestões de revisão precisas para documentos foram feitas em segundos – foi encontrado, em questão de minutos, um erro de referência numa importante equação.

A produção de textos fluentes e convincentes, seja para produzir prosa, poesia, códigos de computador ou – como no caso dos cientistas – para editar artigos de investigação, já é uma atividade realizada pela IA. “Isso ajudar-nos-á a aumentar a produtividade enquanto investigadores”, afirmou Pividori à Nature. Outros cientistas entrevistados pela revista, como Hafsteinn Einarsson, da Universidade da Islândia, afirmaram que a ferramenta está a ser utilizada também para “debater ideias”. Einarsson afirmou que usa o ChatGPT para escrever slides de apresentação e provas para alunos, além de converter teses em trabalhos. “Muitas pessoas já estão a usar [o ChatGPT] como secretária ou assistente digital”, disse. O Núcleo Interinstitucional de Linguística Computacional (Nilc) da USP afirmou que o ChatGPT é “a mais nova evidência de inovações com potencial disruptivo que a inteligência artificial pode trazer no futuro, com potencial de alterar drasticamente a maneira como interagimos com as máquinas”.

Poucos meses após o seu lançamento, a OpenAI já trabalha na monetização do recurso: a empresa do Vale do Silício anunciou um serviço que, por 20 dólares por mês, garante tempos de resposta mais rápidos e acesso prioritário a novos recursos do ChatGPT – que, além das funções já descritas, também pode conversar com chatbots de outras empresas para negociar preços de produtos, por exemplo. Apesar da OpenAI ser uma organização sem fins lucrativos, ela recebe investimentos de grandes empresas – entre elas a Microsoft, que já anunciou um novo investimento estimado em cerca de 10 mil milhões de dólares. Outras Big Techs, como a Google(link is external), investem na construção das suas próprias LLMs – em setembro a DeepMind, subsidiária da empresa, publicou um artigo sobre o “agente de diálogo” Sparrow, que deverá ser lançadp ainda neste ano de forma privada e que incluiria a capacidade de citar fontes nos seus textos.

Apesar do potencial da ferramenta, outros especialistas levantam preocupações sobre o seu desenvolvimento e utilização. A primeira delas, debatida por entidades como a Estratégia Latino-Americana de Inteligência Artificial (ELA-IA)(link is external), é quem produz esta tecnologia – e com que finalidade, visto que as expetativas de lucro podem ir na contramão das necessidades sociais reais. “Quem acredite que esta tecnologia tem potencial para ser transformadora, deveria ficar preocupado”, declarou Casey Greene, da Escola de Medicina da Universidade do Colorado. Ela, assim como outros investigadores, acredita que tudo dependerá de como futuras diretrizes irão restringir o uso dos chatbots – e que essa IA pode ser promissora, desde que seja supervisionada por humanos. Outros especialistas ouvidos pela Nature afirmam que os LLMs não são confiáveis para responder a perguntas e que respostas equivocadas já foram identificadas. O fim do limite entre o que foi redigido pelo cérebro humano e por uma máquina também está no centro das preocupações dos cientistas.

A falta de confiabilidade está diretamente relacionada com a própria construção do ChatGPT e seus similares, que trabalham aprendendo e memorizando padrões estatísticos de linguagem em enormes bancos de dados de texto online – podendo incluir, inclusive, inverdades e preconceitos. Quando os LLMs recebem instruções dos seus utilizadores, cospem, por assim dizer, palavra por palavra para montar uma conversa estilisticamente plausível. O resultado é que os LLMs facilmente produzem erros e informações enganosas, principalmente para tópicos técnicos sobre os quais eles podem ter poucos dados para treinar – mas escritas de forma persuasiva.

Outro dado preocupante é que essas ferramentas não podem mostrar as origens das suas informações. “Não se pode confiar na ferramenta para obter factos corretos ou produzir referências confiáveis”, decretou um editorial de janeiro do ChatGPT na revista Nature Machine Intelligence. Existe o perigo, por exemplo, que os chatbots repliquem ideias sobre o mundo de acordo com os dados utilizados para o seu treino, como a superioridade de determinadas culturas e sistemas. Shobita Parthasarathy, especialista em tecnologia e políticas públicas na Universidade de Michigan, relembra que as empresas responsáveis pelo desenvolvimento dessas IAs estão em países ricos, principais exportadores de determinada cultura e estilo de vida e portanto podem não se esforçar o necessário para superar preconceitos sistémicos.

Outra questão impossível de ignorar é como o ChatGPT se relaciona com o mundo do trabalho. Para além do receio de desemprego a longo-prazo, devido à substituição de atividades humanas por máquinas, algumas situações laborais já estão a ocorrer no próprio desenvolvimento da IA. Para regular o ChatGPT, a OpenAI precisou contratar moderadores humanos incumbidos de rotular discursos tóxicos ou preconceituosos. Mas as notícias são de que esses trabalhadores foram mal remunerados. A exploração também foi apontada dentro de empresas de redes sociais que contrataram pessoas para treinar bots automatizados.

Alguns investigadores defendem que os académicos devem recusar-se a apoiar LLMs comerciais desenvolvidos por grandes empresas tecnológicas. Além de problemas como preconceito, preocupações com a segurança e trabalhadores explorados, estes algoritmos também exigem uma grande quantidade de energia para treinar – o que tem vindo a levantar questões: estariam as Big Techs levando em conta o impacto ecológico? Muito provavelmente, não. Definir limites para essas ferramentas através da lei, para estes especialistas, será crucial.


Alessandra Monterastelli é jornalista no Outras Palavras.

Publicado originalmente no Outras Palavras(link is external). Editado para português de Portugal pelo Esquerda.net.

Nenhum comentário: