Skip to content

Hackers estão empenhados em melhorar a IA

4 de abril de 2022

Principais conclusões

  • Um novo coletivo de desenvolvedores está construindo modelos de IA de código aberto.
  • O grupo usa modelos massivos de treinamento de idiomas que serão lançados sob licenças abertas.
  • A IA de código aberto pode ajudar a tornar o poder potencialmente revolucionário da nova tecnologia menos propenso a vieses e erros.
Há muitas pesquisas sobre inteligência artificial por parte de grandes empresas (IA), mas um grupo online quer democratizar o processo. EleutherAI é um coletivo recém-formado de pesquisadores voluntários, engenheiros e desenvolvedores focados em pesquisa de IA de código aberto. A organização usa as bases de código GPT-Neo e GPT-NeoX para treinar modelos de linguagem massivos que planeja lançar sob licenças abertas. “Os dados de código aberto beneficiam os pesquisadores porque os cientistas têm mais recursos gratuitos para usar para treinar modelos e concluir pesquisas”, disse Edward Cui, CEO da empresa de IA Graviti, à Lifewire em uma entrevista por e-mail. Sua empresa não está envolvida na EueutherAI. “Sabemos que muitos projetos de IA foram prejudicados por uma falta geral de dados de alta qualidade de casos de uso reais, por isso é vital estabelecer orientações que garantam a qualidade dos dados, com a ajuda da comunidade participante”.

Este é o caminho

Os primórdios da EleutherAI foram humildes. No ano passado, um pesquisador independente de IA chamado Connor Leahy postou a seguinte mensagem em um servidor Discord: “Ei pessoal, vamos [SIC] dar a OpenAI uma corrida pelo seu dinheiro como nos bons velhos tempos.” E assim, o grupo foi formado. Agora tem centenas de colaboradores que postam seu código no repositório de software online GitHub. Os esforços de IA de código aberto não são novos. Na verdade, a plataforma de gerenciamento de fluxo de trabalho Airflow do Airbnb e o mecanismo de descoberta de dados do Lyft são os resultados do uso de ferramentas de código aberto para permitir que as equipes de dados trabalhem melhor com os dados, apontou Ali Rehman, gerente de projeto da empresa de software CloudiTwins em uma entrevista por e-mail com Lifewire . “Assim como a revolução do código aberto levou a uma transformação do desenvolvimento de software, também tem impulsionado o desenvolvimento e a democratização da ciência de dados e da inteligência artificial”, disse Rehman. “O código aberto tornou-se um facilitador crítico de dados corporativos soluções científicas, com a maioria dos cientistas de dados usando ferramentas de código aberto.”

Abrindo a porta

O desenvolvimento de IA de código aberto pode ajudar a tornar o poder potencialmente revolucionário da nova tecnologia menos propenso a vieses e erros, argumentam alguns observadores. A pesquisa de IA agora acontece principalmente ao ar livre, com quase todas as empresas, laboratórios de pesquisa e universidades apresentando seus resultados imediatamente em publicações acadêmicas, disse Kush Varshney, pesquisador de IA da IBM, à Lifewire em uma entrevista por e-mail. “Esta comunidade aberta é essencial, pois fornece níveis aprimorados de verificações e contrapesos para garantir que a IA esteja sendo pesquisada, criada, implantada e aplicada com responsabilidade”, acrescentou Varshney. “Isso é especialmente crítico em situações em que esses sistemas podem influenciar a vida de nossos membros mais vulneráveis ​​da sociedade. Essa abertura se aplica não apenas a algoritmos gerais de aprendizado de máquina e aprendizado profundo, mas também a elementos de IA confiáveis”. Rehman disse que uma das diferenças críticas entre software proprietário e de código aberto é a flexibilidade e a personalização. A pesquisa proprietária de IA terá problemas com segurança, atualizações e otimizações.

Alguém digitando código em um laptop.

“Isso ocorre porque a abordagem baseada na comunidade de código aberto recebe informações valiosas de milhares de especialistas do setor que identificam possíveis vulnerabilidades de segurança que são corrigidas mais rapidamente”, acrescentou Rehman. “O consenso da comunidade significa que a qualidade é garantida e novas oportunidades são mais facilmente identificadas.” Outro problema é que a pesquisa de IA proprietária não será interoperável, o que significa que não pode funcionar com vários formatos de dados e provavelmente terá o aprisionamento do fornecedor, o que impede as empresas de testar e experimentar o software antes de se comprometer com uma solução, disse Rehman. Mas nem todos os aspectos da pesquisa de IA precisam ser de código aberto, disse Chris Kent, CEO da empresa médica de IA Reveal Surgical, à Lifewire em uma entrevista por e-mail. “É importante proteger os incentivos econômicos que impulsionam o desenvolvimento comercial das principais aplicações de IA”, disse ele. No entanto, a pesquisa em IA precisa de um componente robusto de código aberto, disse Kent. Ele acrescentou que o código aberto funciona para construir confiança e usar conjuntos de dados que não são ou não devem ser controlados por instituições ou empresas únicas. “Uma abordagem de código aberto é a melhor maneira de identificar e compensar o viés subjacente que pode existir nos conjuntos de treinamento e levará a aplicações de IA mais holísticas, criativas e confiáveis”, disse Kent.