O que é inteligência artificial geral (AGI)?
A inteligência artificial geral (AGI) é uma área da inteligência artificial (IA) pesquisa na qual cientistas estão se esforçando para criar um sistema de computador que seja geralmente mais inteligente do que humanos. Esses sistemas hipotéticos podem ter um grau de autocompreensão e autocontrole — incluindo a capacidade de editar seu próprio código — e ser capazes de aprender a resolver problemas como humanos, sem serem treinados para isso.
O termo foi cunhado pela primeira vez em “Inteligência Artificial Geral” (Springer, 2007), uma coleção de ensaios editados por cientistas da computação Ben Goertzel e pesquisador de IA Cássio Pennachin. Mas o conceito existe há décadas em todo o mundo história da IAe aparece em muitos livros e filmes populares de ficção científica.
Os serviços de IA em uso hoje — incluindo algoritmos básicos de aprendizado de máquina usados no Facebook e até mesmo modelos de linguagem grandes (LLMs) como ChatGPT — são considerados “estreitos”. Isso significa que eles podem executar pelo menos uma tarefa — como reconhecimento de imagem — melhor do que os humanos, mas são limitados a esse tipo específico de tarefa ou conjunto de ações com base nos dados em que foram treinados. AGI, por outro lado, transcenderia os limites de seus dados de treinamento e demonstraria capacidades de nível humano em várias áreas da vida e do conhecimento, com o mesmo nível de raciocínio e contextualização de uma pessoa.
Mas como a AGI nunca foi construída, não há consenso entre os cientistas sobre o que ela pode significar para a humanidade, quais riscos são mais prováveis do que outros ou quais podem ser as implicações sociais. Alguns especularam anteriormente que isso nunca acontecerá, mas muitos cientistas e tecnólogos estão convergindo em torno da ideia de alcançar AGI nos próximos anos — incluindo o cientista da computação Ray Kurzweil e executivos do Vale do Silício como Mark Zuckerberg, Sam Altman e Elon Musk.
Quais são os benefícios e riscos da AGI?
A IA já demonstrou uma série de benefícios em vários campos, desde auxiliar na pesquisa científica para economizar tempo das pessoas. Sistemas mais novos, como ferramentas de geração de conteúdo, geram artes para campanhas de marketing ou rascunhos de e-mails com base nos padrões de conversação de um usuário, por exemplo. Mas essas ferramentas só podem executar as tarefas específicas para as quais foram treinadas — com base nos dados que os desenvolvedores inseriram nelas. AGI, por outro lado, pode desbloquear outra parcela de benefícios para a humanidade, particularmente em áreas onde a resolução de problemas é necessária.
Relacionado: 22 empregos que a inteligência artificial geral (AGI) pode substituir — e 10 empregos que ela pode criar
Hipoteticamente, a AGI poderia ajudar a aumentar a abundância de recursos, turbinar a economia global e auxiliar na descoberta de novos conhecimentos científicos que mudam os limites do que é possível, escreveu o CEO da OpenAI, Sam Altman, em um postagem de blog publicado em fevereiro de 2023 — três meses após o ChatGPT chegar à internet. “AGI tem o potencial de dar a todos novas capacidades incríveis; podemos imaginar um mundo onde todos nós temos acesso para ajudar com quase qualquer tarefa cognitiva, fornecendo um grande multiplicador de força para a engenhosidade e criatividade humanas”, acrescentou Altman.
Existem, no entanto, muitos riscos existenciais que a AGI representa — que vão desde “desalinhamento,“em que os objetivos subjacentes de um sistema podem não corresponder aos dos humanos que o controlam, até à “chance diferente de zero” de um sistema futuro exterminar toda a humanidade, disse Musk em 2023. Uma revisão, publicada em agosto de 2021 no Revista de Inteligência Artificial Experimental e Teóricadescreveu vários riscos possíveis de um futuro sistema AGI, apesar dos “enormes benefícios para a humanidade” que ele poderia potencialmente proporcionar.
“A revisão identificou uma série de riscos associados à AGI, incluindo a retirada da AGI do controle de proprietários/gerentes humanos, o recebimento ou o desenvolvimento de metas inseguras, o desenvolvimento de AGI inseguras, AGIs com ética, moral e valores precários; gestão inadequada da AGI e riscos existenciais”, escreveram os autores no estudo.
Os autores também levantaram a hipótese de que a tecnologia futura poderia “ter a capacidade de se autoaprimorar recursivamente, criando versões mais inteligentes de si mesma, bem como alterando seus objetivos pré-programados”. Há também a possibilidade de grupos de humanos criarem AGI para uso malicioso, bem como “consequências catastróficas não intencionais” provocadas por AGI bem-intencionadas, escreveram os pesquisadores.
Quando a AGI acontecerá?
Há visões conflitantes sobre se os humanos podem realmente construir um sistema que seja poderoso o suficiente para ser uma AGI, e muito menos quando tal sistema pode ser construído. avaliação de várias pesquisas importantes entre cientistas de IA mostra que o consenso geral é que isso pode acontecer antes do fim do século — mas as visões também mudaram ao longo do tempo. Na década de 2010, a visão consensual era que a AGI estava a aproximadamente 50 anos de distância. Mas ultimamente, essa estimativa foi reduzida para algo entre cinco e 20 anos.
Nos últimos meses, vários especialistas sugeriram que um sistema AGI surgirá em algum momento desta década. Este é o cronograma que Kurzweil apresentou em seu livro “A Singularidade Está Mais Próxima” (2024, Penguin) — com o momento em que alcançamos a AGI representando a singularidade tecnológica.
Este momento será um ponto sem retorno, após o qual o crescimento tecnológico se tornará incontrolável e irreversível. Kurzweil prevê que o marco da AGI levará a uma superinteligência na década de 2030 e, então, em 2045, as pessoas poderão conectar seus cérebros diretamente com a IA — o que expandirá a inteligência e a consciência humanas.
Outros na comunidade científica sugerem que a AGI pode acontecer em breve. Goertzel, por exemplo, sugeriu que pode atingir a singularidade em 2027enquanto o cofundador da DeepMind, Shane Legg, disse que espera AGI até 2028. Musk também sugeriu A IA será mais inteligente que o ser humano mais inteligente até o final de 2025.