Ouvindo...

Inteligência artificial tem ‘caixa preta’ que desenvolvedores não entendem

Depois que sistema aprendeu idioma sozinho, especialistas passaram a falar de aspectos não compreendidos da tecnologia

Quem já tentou aprender um idioma sabe que nem sempre é fácil. Para um sistema de inteligência artificial do Google, porém, foi bem simples. Segundo engenheiros da empresa, ele aprendeu uma nova língua sozinho: foi o bengali, o idioma oficial de Bangladesh.

Leia também:

James Maneka, chefe da divisão de inteligência artificial da companhia, contou à emissora americana CBS que, mesmo sem treinamento, a inteligência artificial passou a traduzir o idioma. Sundar Pichai, CEO do Google, brinca que a capacidade desses sistemas de apresentar habilidades inesperadas tem um apelido entre os especialistas: “caixa preta”.

Apesar disso, ele desconversou quando, em entrevista ao programa 60 Minutes, a pergunta foi sobre o fato de os engenheiros não entenderem a “caixa preta” da inteligência artificial. “Acho que também não entendemos completamente como a mente humana funciona”, apontou. “Acho que desenvolver isso precisa incluir não apenas engenheiros, mas também cientistas sociais, especialistas em ética, filósofos e assim por diante”, sugeriu.

Para Ian Hogarth, cofundador da Plural, o desenvolvimento de software de inteligência artificial pode resultar em sistemas mais criativos. “[Os desenvolvedores] estão mais próximos de uma ‘caixa preta’ de várias maneiras, porque você realmente não entende o que acontece lá dentro”, disse, em entrevista à BBC.

Diferentemente da programação comum — em que os comandos são refletidos no resultado oferecido pelo software —, na inteligência artificial, os engenheiros tentam simular ações da mente humana. Isso requer grande poder de processamento de dados e aprendizado de máquina. Hogarth explica que eles são necessários para garantir que haja respostas adequadas aos comandos do usuário.

Já David Stern, gerente de pesquisa da G-Research — que usa aprendizado de máquina para prever preços nos mercados financeiros —, aponta que “esse procedimento de treinamento” engloba milhões de parâmetros “que interagem de maneiras complexas e são muito difíceis de explicar”. Ele ressalta que a inteligência artificial pode aprender sozinha quando interage com o ambiente — esse conceito se chama “aprendizado por reforço profundo” e “resulta em um sistema que é ainda mais difícil de compreender”, afirma Stern.

Hogarth avalia que falta diálogo claro sobre os impactos em potencial da tecnologia. “Acho que elas [as ferramentas com inteligência artificial] têm um potencial notável para transformar todos os aspectos de nossas vidas”, afirma. “O ponto principal é que deveríamos ter uma discussão pública sobre a rapidez com que esses sistemas estão progredindo.”

Leia mais