O ChatGPT chegou ao judiciário: na primeira sentença redigida com o uso de
Leia mais:
Na sentença, Padilla decidiu a favor do menor. O pedido da mãe era para que seu filho autista seja isento do pagamento de consultas médicas, terapias e transporte até centros de saúde, uma vez que a família não tem recursos financeiros. O juiz revela que usou o chatbot ChatGPT para embasar a deliberação.
Ele diz que perguntou ao sistema se “menor autista está isento de pagar cotas moderadoras em terapias?”. A resposta do ChatGPT foi positiva. “Sim, isso mesmo. De acordo com a regulamentação na Colômbia, os menores com diagnóstico de autismo estão isentos de pagar cotas moderadoras em suas terapias”, informa.
Padilla destaca que o ChatGPT faz o que “um secretário” faria, “de forma organizada, simples e estruturada”, o que “pode melhorar os tempos de resposta do sistema judiciário”. “Os juízes não são burros. Ao fazer perguntas ao aplicativo, não deixamos de ser juízes, de ser seres pensantes”, pondera.
No Twitter, Juan David Gutiérrez, professor da Universidade de Rosário, na Argentina, discorda de Padilla. Ele mostra que fez as mesmas perguntas ao ChatGPT e obteve respostas diferentes. “Como ocorre com outras inteligências artificiais em outros âmbitos, sob a narrativa de uma suposta eficiência colocam-se em risco os direitos fundamentais”, alerta.
Antídoto em desenvolvimento
Em meio a toda a discussão suscitada pelo uso da ferramenta, a OpenAI, criadora do ChatGPT, lançou uma solução que identifica textos escritos por inteligência artificial. O
A empresa adverte, entretanto, que a ferramenta tem limitações. O método “é imperfeito e às vezes pode estar errado”, diz Jan Leike, chefe da equipe de alinhamento da OpenAI encarregada de tornar seus sistemas mais seguros.
A OpenAI tem se envolvido com educadores para discutir os recursos e as limitações do ChatGPT. “A identificação de texto criado por inteligência artificial tem sido um ponto importante de discussão entre os educadores, e igualmente importante é reconhecer os limites e impactos dessas ferramentas na sala de aula”, afirma.
Entre as fragilidades da solução de identificação de material produzido por inteligência artificial estão:
o recurso não deve ser usado como ferramenta principal de tomada de decisão, mas como complemento a outros métodos de determinação de fonte de textos;
a ferramenta é pouco confiável em textos curtos (abaixo de mil caracteres). Já textos mais longos às vezes são rotulados incorretamente;
a recomendação, por enquanto, é para utilizar a solução apenas para texto em inglês: ela tem desempenho significativamente pior em outros idiomas e não é confiável em código;
texto muito previsível não pode ser identificado de forma confiável. Por exemplo, uma lista dos primeiros mil números primos, em que a resposta correta é sempre a mesma.