Ouvindo...

Steve Wozniak e Elon Musk são contra o avanço da inteligência artificial?

Especialistas e pesquisadores apontam que é preciso estabelecer protocolos de segurança para a tecnologia

Interação entre robôs e humanos deve ser mediada por protocolos específicos

Ser destaque no segmento de inteligência artificial se transformou em objetivo para empresas que desenvolvem a tecnologia. Depois que a OpenAI apresentou a primeira versão do ChatGPT, em novembro de 2022, a plataforma se tornou tão popular que inúmeros concorrentes começaram a ser anunciados.

Leia também:

Se inicialmente tudo parecia sob controle, não demorou para que conteúdos criados por inteligência artificial passassem a confundir. Foi o caso, por exemplo, das fotos em que Donald Trump, ex-presidente americano, aparece rodeado de policiais como se estivesse sendo preso. Ou das imagens em que o Papa Francisco veste um casaco longo branco.

Isso levou o Instituto Future of Life a escrever uma carta aberta para pedir a interrupção do desenvolvimento de pesquisas em grande escala. O documento foi imediatamente assinado por empresários como Elon Musk, Steve Wozniak, cofundador da Apple, e Jaan Tallinn, cofundador do Skype, e pesquisadores como o escritor Yuval Noah Harari.

Isso quer dizer que eles são contra a tecnologia? Não necessariamente. Gustavo Torrente, professor do Centro Universitário FIAP, lembra que a justificativa para a pausa são aspectos que podem ameaçar o futuro da humanidade. “Devemos permitir que máquinas inundem nossos canais de informação com propaganda e mentiras?”, exemplifica ele.

Torrente aponta que o objetivo é garantir que o desenvolvimento seja retomado apenas quando houver confiança de que os efeitos da tecnologia serão positivos e seus riscos, gerenciáveis. “Devemos automatizar todos os empregos, incluindo os que trazem satisfação? Devemos desenvolver mentes não humanas que eventualmente possam superar os seres humanos, tornando-os obsoletos e substituindo-os?”, completa.

Apesar da tentativa, o professor não acredita em uma pausa. “Depende de vários fatores, como a quantidade de assinaturas coletadas e motivos convincentes de que a inteligência artificial de fato apresenta riscos profundos para sociedade”, aponta. “Mesmo assim, a velocidade do avanço da tecnologia é exponencial.”

Isso sem contar os investimentos no desenvolvimento de sistemas de empresas como Google e Microsoft. Elas não devem abandonar projetos que já estão em andamento: atualmente, o Bard, do Google, já começou a ser implementado em ferramentas como o Google Mensagens e o Bing Chat, da Microsoft, já otimiza tarefas básicas no Teams.

Educação e protocolos de segurança

O maior destaque, claro, são os signatários do documento. Pelo menos um deles, entretanto, pode querer apenas atrapalhar o sucesso da OpenAI — que, além do ChatGPT, é responsável pelo DALL-E, que usa inteligência artificial para criar imagens a partir de texto —: Elon Musk foi um dos financiadores da OpenAI e tentou comprá-la em 2018. “Seus interesses podem ser duvidosos”, avalia Torrente.

Já os pesquisadores pedem a criação de protocolos de segurança compartilhados e que permitam a realização de auditorias externas independentes. “Esses protocolos devem garantir que os sistemas sejam seguros além de qualquer dúvida razoável”, aponta o documento.

Para Torrente, é preciso pensar em regulações e abordar os aspectos éticos. “Deve-se ter em mente que a educação é fundamental para lidar com o avanço da inteligência artificial”, destaca. “É importante que todos estejam cientes das mudanças que estão ocorrendo e quais habilidades serão necessárias no futuro. Além disso, a colaboração entre pessoas e empresas pode minimizar os impactos negativos da tecnologia.”

A preocupação pode, ainda, levar órgãos reguladores a investigarem os impactos da tecnologia. Enquanto o ChatGPT e seus concorrentes apenas escrevem e criam conteúdo, outros sistemas em desenvolvimento podem ir além. É preciso, então, pensar em normas de segurança que evitem surpresas no futuro.