Surgirá uma inteligência maior do que a humana? | Tecnologia

[ad_1]

A inteligência artificial (IA) disparará a produtividade, tornará o mundo mais eficiente e seguro, aumentará a expectativa de vida e servirá para prever o futuro, prevenir catástrofes e combater a mudança climática. As empresas que desenvolvem esta nova era baseada em algoritmos e big data a apresentam como o Santo Graal e passam na ponta dos pés pelos evidentes perigos que ela também traz. Porque, segundo diferentes estudos e análises, entre 14% e 40% dos postos de trabalho atuais correm o risco de desaparecer devido ao efeito combinado desses sistemas e da robótica.

“O ser humano será forçado a ter uma formação contínua para não ficar obsoleto”, afirma Robin Li, CEO e cofundador do Baidu. Mas existe um cenário no qual nem mesmo esse aprendizado contínuo seria suficiente para garantir os postos de trabalho: o da singularidade tecnológica. Embora ainda seja um conceito mais apropriado para histórias de ficção científica, essa hipótese traça um futuro no qual os avanços tecnológicos desembocam em uma superinteligência que supera de longe a do ser humano. E não faltam cientistas que a considerem uma possibilidade menos remota do que muitos outros querem acreditar.

O futuro

“Sempre acreditamos que era impossível copiar a inteligência humana, e agora sabemos que algum dia poderemos compreendê-la suficientemente bem para replicá-la. Isso significa que ela não é insubstituível”

Wu Shuang, cientista-chefe da Yitu

Será que o futuro pode superar a ficção? Principalmente na China, o país que se propôs a liderar o desenvolvimento da inteligência artificial: já é o que mais investe no setor, o que tem mais instituições públicas fazendo pesquisas e o que mais registra patentes: 57% do total, em comparação com 13% dos EUA e 7% da União Europeia, segundo o relatório de 2018 Artificial Intelligence, a European Perspective, da Comissão Europeia. E conta com 17 das 20 instituições de pesquisa mais relevantes no âmbito da IA, segundo um estudo da Organização Mundial da Propriedade Intelectual. “Embora eu gostasse que os EUA ganhassem a corrida da IA, se tivesse de apostar, apostaria na China”, afirma Thomas H. Davenport, autor de The AI Advantage (“A vantagem da inteligência artificial”). “A China tem muitas vantagens: um Governo determinado, uma fonte inesgotável de dinheiro, um número crescente de cientistas inteligentes e uma enorme população que adora o digital”, argumenta.

Também é o país com menos barreiras éticas e legais. Isso permite que os científicos entrem em terrenos que outros países consideram pantanosos. “Sempre pensamos que era impossível copiar a inteligência humana e agora sabemos que algum dia poderemos compreendê-la suficientemente bem para replicá-la. Isso significa que ela não é insubstituível”, afirma Wu Shuang, cientista-chefe da Yitu, uma das empresas de IA mais avançadas da China e doutor em Física pela University of Southern California. “Ainda estamos na fase de dotar as máquinas da capacidade de percepção e longe de passar às de raciocínio e de tomada de decisões. Mas estou convencido de que as máquinas acabarão adquirindo senso comum e de que serão capazes de tomar decisões cotidianas melhor do que os humanos”, acrescenta Wu, especializado em aprendizagem automática e redes neuronais profundas.

Wu coça a cabeça depois de 50 minutos de entrevista e reconhece não saber se o ser humano vai se dar bem nesta nova etapa na qual está se aprofundando. E não é o único. “Sempre quisemos acreditar que o ser humano é o centro do universo. Depois percebemos que vivemos em um pequeno planeta de um sistema solar que não está nem mesmo no centro da galáxia”, aponta. “Também achamos que temos um intelecto superior, criativo e capaz de raciocinar. Ainda não sabemos exatamente como funciona, mas acredito que acabaremos entendendo todos os seus mecanismos. Isso nos ajudará a melhorar, mas também demonstrará que pode existir uma inteligência superior.”

“Os Governos, que até agora têm sido reativos, devem ser proativos e regulamentar tudo isso muito mais rápido”

Brian Subirana, diretor do Auto-ID Lab do MIT

Chen Haibo tem uma opinião semelhante. O fundador e presidente da DeepBlue, outra grande empresa chinesa do setor, acredita que nem mesmo a imaginação será sempre uma capacidade exclusiva do Homo sapiens. “A tecnologia avançou em dois séculos mais do que nós em milhares de anos. Não vejo por que deixaria de fazer isso − portanto, é inevitável que as máquinas terminem superando nossa inteligência”, afirma.

Indícios de superinteligência?

“Esta superinteligência vai chegar e talvez nem percebamos que está chegando”, acrescenta Brian Subirana, diretor do Auto-ID Lab do Massachusetts Institute of Technology (MIT) [entrevistado por Jaime Susanna na Cibecom, a Cúpula Ibero-Americana de Comunicação Estratégica].

Ele cita como exemplos alguns passos que já estão sendo dados nessa direção: “O reconhecimento de imagem nos últimos sete anos superou o do ser humano. Por isso, nos controles de imigração as câmeras podem reconhecer melhor do que os agentes os rostos. É uma tecnologia utilizada também na medicina. No caso dos tumores de retina, descobriu-se que o computador sabe distinguir se uma retina é de homem ou de mulher, algo que nenhum médico sabe fazer. Esse seria um exemplo de superinteligência no qual o computador vê coisas que escapam ao olho humano”.

Por outro lado, a potência da computação cresce exponencialmente ao mesmo tempo em que os chips ficam menores. Peter Abbeel, professor da UC Berkeley e cientista-chefe da Embodied Intelligence, concorda: “Ainda não existe uma máquina com poder de computação para reproduzir o cérebro humano, mas isso pode ser conseguido na nuvem, com uma rede de computadores”.

Na opinião de Abbeel, esse não é o maior problema. “À medida que os chips forem avançando, eles também ficarão cada vez mais baratos. Uma máquina com a capacidade de computação de uma pessoa poderia até custar menos do que o salário mínimo”, assinala. José Dorronsoro, professor de Ciência da Computação e Inteligência Artificial na Universidade Autônoma de Madri e pesquisador sênior do Instituto de Engenharia do Conhecimento, concorda: “Há quem diga que os microprocessadores quânticos são difíceis de controlar e que se demonstrará que a Lei de Moore, que diz que a cada dois anos o poder der cálculo dobra, está errada porque os chips enfrentarão barreiras físicas intransponíveis. Eu, no entanto, acredito que surgirão novas propostas tecnológicas e considero viável que a capacidade de computação do cérebro possa ser replicada em um tempo razoável”.

Os céticos

O Projeto Cérebro Humano da União Europeia busca algo semelhante, mas de uma perspectiva mais ampla, com a Plataforma de Simulação do Cérebro. Embora Abbeel considere que estes avanços podem ser o primeiro passo no caminho para uma superinteligência, Dorronsoro não acredita que ele se tornará o germe da singularidade tecnológica. “Uma máquina pode fazer muitos cálculos a uma velocidade enorme, mas precisa de uma estrutura conceitual para ir mais longe. Temos de entender o cérebro também do ponto de vista neurofisiológico”, argumenta.

A posição de Dorronsoro é semelhante à de Ramón López de Mántaras, diretor do Instituto de Pesquisa de Inteligência Artificial do Conselho Superior de Pesquisas Científicas da Espanha (CSIC, na sigla em espanhol), um dos cientistas que veem o conceito de superinteligência com mais ceticismo: “A capacidade de computação se compara com a atividade elétrica dos neurónios, mas no cérebro há mais células gliais do que neuronais. Hoje sabemos que têm um papel importante, mas não como reproduzi-las”. López de Mántaras assinala que será possível criar uma rede neuronal comparável à do cérebro quanto a seu número de unidades de processamento, mas alerta que só estará sendo modelada a atividade elétrica, esquecendo-se a química, que é fundamental para processar informações. “Ou seja, em nenhum caso será um cérebro”, sentencia.

IA: sem memória nem ética

Um obstáculo adicional está na capacidade de aprendizagem da IA e no esquecimento catastrófico que ela sofre. Como diz López de Mántaras, “sistemas como o DeepMind têm uma aprendizagem que não é incremental nem relaciona um conhecimento novo com os que tinha antes. Se você o ensinar a jogar xadrez, ele fará isso. Mas se você o reprogramar para fazer outra tarefa, ele se esquecerá de jogar. Por enquanto, não sabemos como conseguir que uma máquina aprenda mais ao longo de toda sua vida, como faz uma pessoa”.

Dorronsoro também ressalta os dilemas éticos que a inteligência artificial tem de resolver antes de poder dar o salto para a superinteligência. O primeiro, aponta ele, chegará com os veículos autônomos. “Terão de reagir diante dos imprevistos e, portanto, precisarão tomar decisões que tenham uma vertente ética. Porque não haverá tempo para que o carro envie uma mensagem com o dilema surgido para um centro de controle no qual seres humanos decidam o que fazer. Atropelo a senhora ou jogo o carro pelo barranco?”.

López de Mántaras também se preocupa com as armas autónomas. Ele foi um dos primeiros signatários de uma petição para proibi-las. Não só os drones dos exércitos, mas também os diferentes robocops que estão sendo desenvolvidos. “Distinguir entre uma pessoa que porta uma arma, mas tem uma atitude de rendição, e outra que ameaça alguém com ela é muito difícil. Assim como determinar se um ferido armado está no chão pedindo ajuda e não em uma atitude agressiva. Há muitos exemplos de que a inteligência artificial em armas autónomas não é confiável e não deve ser usada”, ressalta. Como se isso não bastasse, López de Mántaras apresenta um argumento moral: “É indigno delegar a uma máquina a decisão de matar”.

A programação desses sistemas pode estabelecer alguns precedentes importantes. “Não vamos dar capacidade de julgamento às máquinas, mas dotaremos de ética os algoritmos, que não deixam de ser receitas mecânicas. E depois teremos de ver como se lidará juridicamente com suas consequências”, aponta Dorronsoro. Só quando essas questões forem respondidas é que poderá ser dado um novo passo em direção ao que atualmente é ficção científica: dar sentimentos às máquinas. “Não podemos dizer que nunca ocorrerá. Mas isso tornaria a humanidade completamente obsoleta, porque as máquinas seriam capazes de fazer tudo: da pesquisa científica à arte. Seria o pós-humanismo”, afirma López de Mántaras.

A guerra comercial pela IA

Além disso, Subirana aponta outro obstáculo, derivado da estrutura que criou o sistema capitalista: “Caso se chegasse à superinteligência, não haveria apenas uma: existiram várias, lideradas por diferentes empresas, e poderiam ocorrer lutas entre algoritmos para ver quem ganha”. O cientista do MIT pega seu iPhone para uma demonstração simples: pede à Siri que toque uma música no Spotify e o sistema de IA se recusa porque a Apple bloqueia esse serviço; Subirana diz “ok, Google” e a Siri ri dele. Literalmente.

No fim das contas, os algoritmos respondem a interesses comerciais que criam muros para separar uns dos outros. O interesse público é o que menos importa quando as inteligências artificias têm logotipo. “Deveria ser iniciado um diálogo social transparente e mais ativo para debater seu funcionamento. E os Governos, que até agora têm sido reativos, devem ser proativos e regulamentar tudo isso muito mais rápido”, afirma o cientista. Todos os entrevistados para esta reportagem concordam com a necessidade de regulamentar a inteligência artificial para impor um limite para os excessos das grandes corporações antes que seja tarde demais.

Independentemente de que seja alcançada ou não a singularidade tecnológica, nenhum deles duvida que a inteligência artificial terá um profundo efeito na sociedade. Eles afirmam que ainda estamos na infância dessa tecnologia e não temos certeza do que estamos buscando. Deveríamos nos concentrar em utilizá-la “para resolver os problemas sociais existentes e não só para obter ganhos econômicos”, adverte Yang Xueshan, professor da Universidade de Pequim e ex-vice-ministro da Indústria e Tecnologias da Informação da China.

Concentração perigosa de poder

“Temos de desenvolver a IA de uma forma que sirva aos nossos interesses e se preocupe conosco”, afirma Abbeel. O problema é que, em um mundo polarizado, esse “conosco” não engloba toda a humanidade, e sim pequenos grupos de poder. Assim, Dorronsoro aponta a ameaça representada pela concentração de poder em um pequeno número de gigantes tecnológicos, “como Google, Facebook e Netflix”. Chen e Wu destacam a disrupção que a soma da inteligência artificial com a robótica vão provocar no mercado de trabalho. E López de Mántaras acrescenta que isso pode aprofundar a crescente desigualdade econômica “provocada por um neoliberalismo que está destruindo a classe média”.

Subirana, por outro lado, mostra sua preocupação com o perigo crescente representado por hackers em um mundo hiperconectado e controlado por algoritmos manipuláveis. “Eles podem explorar as vulnerabilidades dos sistemas com consequências muito mais graves, porque não existe 100% de proteção”, analisa. “O que aconteceria se, por exemplo, um milhão de micro-ondas fossem ligados ao mesmo tempo e ocorressem milhares de incêndios nos quais morressem centenas de pessoas?”, pergunta.

Além disso, na opinião de Brian Subirana, o rastro de dados que deixamos − biométricos, de GPS, correio eletrônico, compras na Internet − em poder das multinacionais também pode ser utilizado para explorar fraquezas dos indivíduos, dos quais é possível saber quase tudo. “Por exemplo, podem ser oferecidas bebidas a quem sofre de alcoolismo quando o algoritmo determina seu momento mais vulnerável. E a Amazon já está fazendo perfis dos clientes escutando tudo o que acontece em suas casas”, assinala o cientista do MIT.

A força da empatia humana

Embora a maioria dos cenários pareça apocalíptica, todos os cientistas entrevistados destacam que não são pessimistas quanto ao futuro. Pelo contrário, consideram que a IA será um poderoso motor de desenvolvimento. “O bom caminho é o dos cobots, sistemas de IA que nos permitirão fazer melhor nosso trabalho”, diz López de Mántaras.

O pesquisador do CSIC volta ao terreno médico para dar um exemplo. “Os sistemas de diagnóstico melhoram substancialmente a eficiência dos médicos. Mas o médico é insubstituível, porque a máquina não tem empatia. O contato humano de quem coloca a mão no seu ombro e diz que vai curar você não pode ser reproduzido, ainda, por um robô. E há um efeito placebo brutal. Por enquanto, tudo que requer socialização está fora do alcance das máquinas.”

A Yitu é uma das empresas que desenvolvem algoritmos de IA e sistemas de reconhecimento de imagem para diagnósticos médicos, mas Wu também prevê um bom futuro para os médicos − “se você lhes der uma ferramenta muito poderosa para que façam melhor seu trabalho”. Ele destaca a melhoria que significam no mundo em desenvolvimento, onde a demanda por serviços de saúde cresce mais rápido do que a capacidade de formar novos médicos: “Na radiologia também não há profissionais suficientes, por isso nossos sistemas − capazes de fazer um diagnóstico a partir de exames visuais, como tomografias e ressonâncias magnéticas − suprem essa carência porque permitem que os especialistas existentes façam seu trabalho mais rápido: podem examinar 50 tomografias por dia, em vez de 10”.

Chen Haibo também é otimista. “Pode ser que os chips cheguem a superar a imaginação humana, mas devemos trabalhar para que o futuro não seja mutuamente excludente. Temos de concentrar nossos esforços em aprender a conviver com máquinas que podem nos superar em diferentes habilidades”, assinala o fundador da Yitu. “Não devemos ter medo, porque já fizemos isso antes. Passamos de uma era em que quase toda a humanidade trabalhava no campo para outra na qual era empregada nas fábricas. E daí para uma sociedade de serviços”, acrescenta.

A resistência

López de Mántaras prefere olhar para a Suécia, onde se experimentou uma redução da jornada de trabalho para 30 horas semanais, para sustentar sua tranquilidade. “A automatização está destruindo empregos há muito tempo. Basta pensar nos caixas eletrônicos. Mesmo assim, as sociedades mais automatizadas não são as que têm mais desemprego”, assinala. Mas o cientista também diz que tudo dependerá do modelo de IA que predominar. “A Europa deve ser a resistência.”

Cientistas do nível de Stephen Hawking e empresários como Elon Musk alertaram que um modelo equivocado poderia representar a maior ameaça para a humanidade. Embora Hawking tenha reconhecido que a IA mais rudimentar, a que existe na atualidade, é muito prática, ele assinalou que desenvolvê-la mais do que isso poderia levar à singularidade tecnológica. “Ela poderia acabar redesenhando a si mesma. Os humanos, incapazes de se desenvolver biologicamente na mesma velocidade, seriam substituídos.” No entanto, todos os entrevistados para esta reportagem acreditam que não se chegará a esse ponto. Dorronsoro diz até mesmo, entre risos, que essa possibilidade lhe importa tanto quanto a superpopulação de Marte: “Pode acontecer? Pode, mas não é uma preocupação imediata”.

[ad_2]
Source link

× Consulte-nos!