Para neurocientista, falta de experiência e emoções limita o pensamento das máquinas (Foto: Pexels)
Inteligência artificial é um tema polêmico. Em meio ao desenvolvimento de sistemas baseados em machine learning, capazes assumir tarefas cada vez mais sofisticadas e de melhorar com a «prática», surgem dúvidas para profissionais, organizações e gestores públicos: em quais postos as máquinas não vão nos substituir? IA vai gerar mais empregos do que vai destruir? O que estudar, nesse tipo de mercado de trabalho? Isso sem mencionar cenários mais sombrios, com sistemas inteligentes ganhando mais autonomia (e imprevisibilidade), sendo usados como armas ou sendo hackeados com fins malignos.
O pesquisador Álvaro Machado Dias, da Unifesp, prefere não projetar um cenário tão drástico. Para ele, sem a vantagem de milhões de anos de evolução, sem emoções nem empatia verdadeiras, as máquinas não serão capazes de pensar como nós. Mas ele vê, sim, outras ameaças no horizonte, associadas à difusão da I.A.. Álvaro se encontra num ponto privilegiado para fazer essa análise: é um pesquisador multidisciplinar, neurocientista e psicólogo comportamental com conhecimento profundo de I.A., coordenador da linha de pesquisa em tomada de decisão do Laboratório de Neurociências Clínicas da EPM-Unifesp (ele atua também como cientista-chefe do Projeto Rhizom, que desenvolveu o primeiro protocolo de blockchain latino-americano).
saiba mais
As máquinas podem resolver todos os nossos problemas?
Para Álvaro Machado Dias, não. Isso porque nem todos os problemas que enfrentamos podem ser perfeitamente explicados apenas com parâmetros quantitativos. “Nossa relação com o mundo não pode ser perfeitamente modelada pela solução de problemas. Se você está indo para o trabalho de carro, importa muito saber como você chega o mais rápido possível. É um problema que tem uma solução ótima a cada momento. Mas se você quer passear no domingo de bicicleta, o desafio é encontrar a rota mais agradável, e esse desafio não pode ser modelado da mesma maneira”, diz.
“Um algoritmo é um conjunto de instruções para se chegar de um ponto inicial a um desfecho, e a premissa é que ele seja eficiente para chegar a esse desfecho. O grande ponto é que em muitas das situações que a gente vive e que caracterizam a nossa humanidade, a utilidade esperada não é na ponta, ela acontece ao longo do processo”.
Álvaro Machado Dias, neurocientista, psicólogo comportamental e estudioso de tecnologia da informação: as ameaças ambientais e de dissolução social parecem mais próximas do que qualquer risco cibernético (Foto: Divulgação)
Máquinas podem pensar como os humanos?
“O grande porém disso é que a mente humana é muito mais um ecossistema cognitivo, e quando a gente olha o funcionamento desse ecossistema, vê que muitas das funcionalidades estão enraizadas em capacidades adquiridas ao longo da evolução”, explica. Um exemplo disso é a cognição social, que envolve o pensamento de grupo. É a capacidade que temos de imaginar o que outra pessoa está pensando (se está entendendo o que está sendo dito ou se perdeu o interesse pelo assunto, por exemplo).
“Como uma máquina pode fazer isso sem ter consciência? Não faz sentido. A relação social que temos a partir do pensamento depende de consciência. Isso já limita fundamentalmente o atingimento da inteligência plena [pelas máquinas]”, diz Dias.
As máquinas também não conseguiriam alcançar a empatia humana. “A gente gesticula, olha nos olhos, sorri, interage, sincroniza comportamentos a partir dessas coisas, e não adianta criar uma ‘máquina de sincronização comportamental’ para resolver esse problema. Isso não resolve porque justamente a grande medida da empatia é a autenticidade, a sensação de que a pessoa está sendo genuína – e essa capacidade é absolutamente determinada pela existência da emoção”, afirma.
Se não teremos uma inteligência artificial geral, capaz de substituir os humanos em tudo, para onde a tecnologia caminha?
“Hoje, o que temos é inteligência artificial específica. Isso significa que um algoritmo pode se tornar muito bom em uma coisa, mas se eu desloco para outra coisa, ele não sabe fazer. Por exemplo, um algoritmo aprende a jogar um jogo. Se eu troco de jogo, ele não tem transferência de conhecimento. A transferência de conhecimento já está começando a surgir, mas é modesta. Hoje, já há sistemas que jogam mais de um jogo, aprendem muito rápido. O grande problema é que ele só joga. Não temos a capacidade de transferir (conhecimento de uma atividade para outra) e fazer a integração multimodal que a mente humana faz”, diz.
A consciência humana é capaz de integrar áreas de conhecimento, filtrando o que interessa e articulando as informações que importam. “Essa capacidade de transferência de conhecimento poderia ser possível às máquinas, mas nunca será plena se não houver emoção e experiências sensoriais”.
Robôs podem dominar o mundo?
“Se em lado de uma discussão estão Stephen Hawking e Bill Gates, é preciso ter cuidado para não tripudiar demais”, afirma o neurocientista, lembrando que ambos já manifestaram preocupações sobre o desenvolvimento da inteligência artificial. No entanto, Álvaro afasta possibilidades extremas, como um sistema decidir que a espécie humana não tem finalidade e resolver exterminá-la.
O cientista apresenta um cenário hipotético — imaginemos que uma I.A. hostil decida, por conta própria, criar outras versões de si mesma e se espalhar. Isso pode ocorrer, mas esse sistema vai encontrar resistência. «Não podemos pensar nessa questão como um robô contra um humano. É um robô contra bilhões de humanos. O que está em discussão não é a capacidade de um sistema sobrepujar uma pessoa, e sim sobrepujar bilhões de pessoas e pelo menos 10 mil anos de evolução cultural”.
Então não devemos nos preocupar?
Antes do risco de as máquinas dominarem o mundo, precisamos pensar em outros riscos mais próximos, diz o neurocientista. “O risco existencial das máquinas está na Lua; o risco existencial da destruição ambiental está no México; o risco existencial de nos destruirmos simplesmente por meio de conflito e dissolução social está em Jacarepaguá”, diz.
Isso não significa que a discussão deve ser completamente descartada. “Quando nos preocupamos com alguma coisa, produzimos mais do que medo. Produzimos uma filosofia, uma forma de pensar o mundo que é muito valiosa”, diz. “Precisamos pensar no risco existencial a partir do aumento da desigualdade por causa da automação”.
Como a tecnologia pode aumentar a desigualdade?
“Daqui a 7 ou 10 anos, teremos uma quantidade de algoritmos suficiente em áreas profissionais críticas para começarmos a sentir o impacto social da automação no mundo. Nesse período, a desigualdade entre os países pode ter aumentado ainda mais em função disso. A gente pode chegar quase a um ponto de não retorno», diz Álvaro. Nesse cenário ruim, ele imagina alguns poucos países desenvolvendo esse tipo de software — Estados Unidos, China, alguns na Europa; e a população na maioria dos outros países servindo só para treinar algoritmos.
“Todos os saltos tecnológicos da humanidade foram acompanhados por um aumento extremo de desigualdade entre os países. Todo processo de transformação social torna o ‘fazer’ de uma determinada forma completamente obsoleto. Em geral, essa forma que se torna obsoleta está mais disseminada nos países mais pobres”, diz o pesquisador. A agravante, hoje, é a velocidade.
As mudanças acontecem em ritmo mais acelerado do que em revoluções anteriores – e talvez não haja tempo para que grandes parcelas da população aprendam novas profissões. “Talvez tenhamos a proliferação de algoritmos capazes de ocupar o papel de pessoas na esfera produtiva com mais velocidade do que as pessoas conseguem reinventar seus empregos. Se isso for verdade, podemos ter um aumento irreversível de desemprego e desigualdade”.
Quer receber as notícias de Época NEGÓCIOS pelo WhatsApp? Clique neste link, cadastre o número na lista de contatos e nos mande uma mensagem. Para cancelar, basta pedir.