Skip to content

Por que os especialistas dizem que devemos controlar a IA agora

13 de abril de 2021

Principais vantagens

  • Uma nova pesquisa sugere que pode não haver maneira de controlar a inteligência artificial superinteligente.
  • Um artigo de jornal argumenta que o controle da IA ​​exigiria uma tecnologia muito mais avançada do que a que possuímos atualmente.
  • Alguns especialistas dizem que a IA verdadeiramente inteligente pode chegar mais cedo do que pensamos.
Yuichiro Chino / Getty Images
Se os humanos algum dia desenvolverem inteligência artificial superinteligente, pode não haver maneira de controlá-la, dizem os cientistas. A IA há muito tempo é apontada como uma cura para todos os problemas da humanidade ou um o Exterminador do Futuroestilo apocalipse. Até agora, porém, a IA não chegou nem perto da inteligência de nível humano. Mas manter a coleira na IA avançada pode ser um problema muito complexo para os humanos se for desenvolvido, de acordo com um artigo recente publicado no Journal of Artificial Intelligence Research. “Uma máquina superinteligente que controla o mundo parece ficção científica”, disse Manuel Cebrian, um dos co-autores do jornal, em um comunicado à imprensa. “Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam completamente como as aprenderam. Portanto, surge a questão de se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”

Em breve em um supercomputador perto de você

O jornal argumenta que o controle da IA ​​exigiria uma tecnologia muito mais avançada do que a que possuímos atualmente. Em seu estudo, a equipe concebeu um algoritmo de contenção teórica que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA ​​primeiro e interrompendo-o se for considerado prejudicial. Mas os autores descobriram que tal algoritmo não pode ser construído. “Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações.” Iyad Rahwan, diretor do Centro para Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano na Alemanha, disse no comunicado à imprensa. “Se isso acontecesse, você não saberia se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável.”

Imagem conceitual: código binário transformando a face do robô de IA.

Yuichiro Chino / Getty Images
A IA verdadeiramente inteligente pode chegar mais cedo do que pensamos, argumenta Michalis Vazirgiannis, professor de ciência da computação na École Polytechnique na França. “IA é um artefato humano, mas está rapidamente se tornando uma entidade autônoma”, disse ele em um e-mail para Lifewire. “O ponto crítico será se / quando a singularidade ocorrer (ou seja, quando os agentes de IA terão consciência como uma entidade) e, portanto, reivindicarão independência, autocontrole e eventual domínio.”

A singularidade está chegando

Vazirgiannis não está sozinho em prever a chegada iminente da super IA. Os verdadeiros crentes na ameaça da IA ​​gostam de falar sobre a “singularidade”, que Vazirgiannis explica ser o ponto de que a IA substituirá a inteligência humana e “que os algoritmos de IA potencialmente perceberão sua existência e começarão a se comportar de forma egoísta e cooperativa”. Segundo Ray Kurzweil, diretor de engenharia do Google, a singularidade chegará antes de meados do século 21. “2029 é a data consistente que previ para quando um AI passará em um teste de Turing válido e, portanto, atingirá níveis humanos de inteligência”, disse Kurzweil Futurismo. “Se não podemos limpar nossa própria casa, que código devemos pedir à IA para seguir?” “Eu marquei a data de 2045 para a ‘Singularidade’, que é quando multiplicaremos nossa inteligência efetiva um bilhão de vezes ao nos fundirmos com a inteligência que criamos” Mas nem todos os especialistas em IA acham que as máquinas inteligentes são uma ameaça. A IA que está em desenvolvimento tem mais probabilidade de ser útil para o desenvolvimento de drogas e não está mostrando nenhuma inteligência real, disse o consultor de IA Emmanuel Maggiori em uma entrevista por e-mail. “Há um grande exagero em torno da IA, o que a faz parecer realmente revolucionária”, acrescentou. “Os atuais sistemas de IA não são tão precisos quanto divulgado e cometem erros que um ser humano jamais cometeria.”

Assuma o controle da IA, agora

Regular a IA para que não escape ao nosso controle pode ser difícil, diz Vazirgiannis. As empresas, em vez dos governos, controlam os recursos que alimentam a IA. “Mesmo os próprios algoritmos são geralmente produzidos e implantados nos laboratórios de pesquisa dessas grandes e poderosas entidades, geralmente multinacionais”, disse ele. “É evidente, portanto, que os governos dos estados têm cada vez menos controle sobre os recursos necessários para controlar a IA”. Alguns especialistas dizem que, para controlar a IA superinteligente, os humanos precisarão gerenciar recursos de computação e energia elétrica. “Filmes de ficção científica como O Matrix fazer profecias sobre um futuro distópico onde os humanos são usados ​​pela IA como fontes de bioenergia “, disse Vazirgiannis.” Mesmo sendo impossibilidades remotas, a humanidade deve garantir que haja controle suficiente sobre os recursos de computação (ou seja, clusters de computador, GPUs, supercomputadores, redes / comunicações) e, claro, as usinas de energia que fornecem eletricidade que é absolutamente prejudicial para o funcionamento da IA. ”

Agente de segurança, observando os blocos de nuvens formando rosto no céu.

Colin Anderson Productions pty ltd / Getty Images
O problema com o controle de IA é que os pesquisadores nem sempre entendem como esses sistemas tomam suas decisões, disse Michael Berthold, cofundador e CEO da empresa de software de ciência de dados KNIME, em uma entrevista por e-mail. “Se não fizermos isso, como podemos ‘controlar’ isso?” Ele acrescentou: “Não entendemos quando uma decisão totalmente diferente é tomada com base em, para nós, informações irrelevantes.” A única maneira de controlar o risco do uso de IA é garantir que ela seja usada apenas quando o risco for administrável, disse Berthold. “Em outras palavras, dois exemplos extremos: não coloque a IA no comando de sua usina nuclear, onde um pequeno erro pode ter efeitos colaterais catastróficos”, acrescentou. “Por outro lado, a IA prevê que se a temperatura ambiente deve ser ajustada um pouco para cima ou para baixo pode valer a pena o pequeno risco para o benefício do conforto de vida.” Se não podemos controlar a IA, é melhor ensinarmos boas maneiras, disse o ex-engenheiro de computação da NASA Peter Scott em uma entrevista por e-mail. “Não podemos, em última análise, garantir a controlabilidade da IA ​​mais do que podemos garantir a de nossos filhos”, disse ele. “Nós os educamos bem e esperamos pelo melhor; até agora, eles não destruíram o mundo. Para educá-los bem, precisamos de um melhor entendimento da ética; se não podemos limpar nossa própria casa, que código devemos pedir para a IA seguir? ” Mas nem toda esperança está perdida para a raça humana, diz o pesquisador de IA Yonatan Wexler, vice-presidente executivo de P&D da OrCam. “Embora os avanços sejam realmente impressionantes, minha crença pessoal é que a inteligência humana não deve ser subestimada”, disse ele em uma entrevista por e-mail. “Nós, como espécie, criamos coisas incríveis, incluindo a própria IA.” A busca por uma IA cada vez mais inteligente continua. Mas pode ser melhor considerar como controlamos nossas criações antes que seja tarde demais.