Principais vantagens
- Uma nova pesquisa sugere que pode não haver maneira de controlar a inteligência artificial superinteligente.
- Um artigo de jornal argumenta que o controle da IA exigiria uma tecnologia muito mais avançada do que a que possuímos atualmente.
- Alguns especialistas dizem que a IA verdadeiramente inteligente pode chegar mais cedo do que pensamos.
Em breve em um supercomputador perto de você
O jornal argumenta que o controle da IA exigiria uma tecnologia muito mais avançada do que a que possuímos atualmente. Em seu estudo, a equipe concebeu um algoritmo de contenção teórica que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA primeiro e interrompendo-o se for considerado prejudicial. Mas os autores descobriram que tal algoritmo não pode ser construído. “Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações.” Iyad Rahwan, diretor do Centro para Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano na Alemanha, disse no comunicado à imprensa. “Se isso acontecesse, você não saberia se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável.”
A singularidade está chegando
Vazirgiannis não está sozinho em prever a chegada iminente da super IA. Os verdadeiros crentes na ameaça da IA gostam de falar sobre a “singularidade”, que Vazirgiannis explica ser o ponto de que a IA substituirá a inteligência humana e “que os algoritmos de IA potencialmente perceberão sua existência e começarão a se comportar de forma egoísta e cooperativa”. Segundo Ray Kurzweil, diretor de engenharia do Google, a singularidade chegará antes de meados do século 21. “2029 é a data consistente que previ para quando um AI passará em um teste de Turing válido e, portanto, atingirá níveis humanos de inteligência”, disse Kurzweil Futurismo. “Se não podemos limpar nossa própria casa, que código devemos pedir à IA para seguir?” “Eu marquei a data de 2045 para a ‘Singularidade’, que é quando multiplicaremos nossa inteligência efetiva um bilhão de vezes ao nos fundirmos com a inteligência que criamos” Mas nem todos os especialistas em IA acham que as máquinas inteligentes são uma ameaça. A IA que está em desenvolvimento tem mais probabilidade de ser útil para o desenvolvimento de drogas e não está mostrando nenhuma inteligência real, disse o consultor de IA Emmanuel Maggiori em uma entrevista por e-mail. “Há um grande exagero em torno da IA, o que a faz parecer realmente revolucionária”, acrescentou. “Os atuais sistemas de IA não são tão precisos quanto divulgado e cometem erros que um ser humano jamais cometeria.”
Assuma o controle da IA, agora
Regular a IA para que não escape ao nosso controle pode ser difícil, diz Vazirgiannis. As empresas, em vez dos governos, controlam os recursos que alimentam a IA. “Mesmo os próprios algoritmos são geralmente produzidos e implantados nos laboratórios de pesquisa dessas grandes e poderosas entidades, geralmente multinacionais”, disse ele. “É evidente, portanto, que os governos dos estados têm cada vez menos controle sobre os recursos necessários para controlar a IA”. Alguns especialistas dizem que, para controlar a IA superinteligente, os humanos precisarão gerenciar recursos de computação e energia elétrica. “Filmes de ficção científica como O Matrix fazer profecias sobre um futuro distópico onde os humanos são usados pela IA como fontes de bioenergia “, disse Vazirgiannis.” Mesmo sendo impossibilidades remotas, a humanidade deve garantir que haja controle suficiente sobre os recursos de computação (ou seja, clusters de computador, GPUs, supercomputadores, redes / comunicações) e, claro, as usinas de energia que fornecem eletricidade que é absolutamente prejudicial para o funcionamento da IA. ”