🤖 O Futuro Incognoscível da IA: Previsões, Segurança e Progresso
A inteligência artificial (IA) percorreu um longo caminho na última década e a próxima geração de modelos de IA está pronta para revolucionar a forma como vivemos e trabalhamos. No entanto, o futuro da IA ainda é amplamente desconhecido e as previsões sobre quando alcançaremos a IA de nível humano (AGI) variam amplamente. Neste artigo, exploraremos algumas das últimas previsões dos principais especialistas em IA, bem como as preocupações de segurança em torno do desenvolvimento da AGI. Também discutiremos o progresso sendo feito no campo da segurança da IA e a necessidade de dados confiáveis para orientar pesquisas futuras.
📚 Índice
- Introdução
- Previsões para Cronogramas de AGI
- A Cúpula de Segurança da IA
- O Novo Modelo Gemini do Google
- Ordem Executiva sobre Flops
- Política de Desenvolvimento Informada por Riscos da OpenAI
- O Futuro do Treinamento de IA
- Engenharia de Representação
- Inserindo Emoção em Modelos de IA
- Otimismo e Consenso
Previsões para Cronogramas de AGI
Shane Legg, co-fundador do Google DeepMind e seu cientista-chefe de AGI, fez uma previsão há mais de uma década de que a IA de nível humano seria alcançada até 2025. Recentemente, ele reiterou essa previsão, afirmando que há uma chance de 50% de que a AGI seja alcançada até 2028. No entanto, ele também reconheceu que os problemas restantes com modelos de linguagem grandes (LLMs) são solucionáveis nesse curto período de tempo. Ele acredita que os modelos existentes amadurecerão, tornando-se menos delirantes e mais factuais, e que se tornarão mais multimodais, tornando-os muito mais úteis.
O ex-chefe de alinhamento da OpenAI, Paul Cristiano, fez uma previsão no podcast Fantastic Geeks de que haveria uma chance de 15% de uma IA capaz de fazer uma Esfera de Dyson até 2030, com uma chance de 40% até 2040. Embora essa seja uma previsão altamente agressiva, destaca o potencial da IA para alcançar feitos incríveis nos próximos anos.
A Cúpula de Segurança da IA
A Cúpula de Segurança da IA é um evento anual que reúne os principais especialistas em IA para discutir as preocupações de segurança em torno do desenvolvimento da AGI. Na cúpula de 2021, as empresas foram solicitadas a elaborar sua política de escalonamento de capacidade responsável, que descreve as condições sob as quais elas interromperiam ou pausariam o escalonamento. A política da OpenAI é uma política de desenvolvimento informada por riscos, que reconhece os riscos associados à AGI, mas também reconhece que aumentos dramáticos na capacidade podem ser alcançados sem aumentos significativos na escala.
O Novo Modelo Gemini do Google
O novo modelo Gemini do Google está pronto para ser lançado nos próximos dois meses. Espera-se que seja mais multimodal do que os modelos existentes, tornando-o muito mais útil. Gemini é apenas um exemplo do progresso sendo feito no campo da IA e destaca o potencial da IA para revolucionar a forma como vivemos e trabalhamos.
Ordem Executiva sobre Flops
A Casa Branca emitiu recentemente uma ordem executiva exigindo que as empresas relatem a segurança e a segurança do peso do modelo de qualquer modelo treinado usando uma quantidade de flops maior que 10 para a 26. Isso é mais poder de computação bruto do que qualquer modelo que está atualmente em uso foi treinado. Embora alguns tenham criticado o uso de computação como medida para regulamentação, outros argumentam que é uma maneira eficaz de garantir que os modelos de IA sejam seguros e confiáveis.
Política de Desenvolvimento Informada por Riscos da OpenAI
A política de desenvolvimento informada por riscos da OpenAI reconhece os riscos associados à AGI, mas também reconhece que aumentos dramáticos na capacidade podem ser alcançados sem aumentos significativos na escala. A política é projetada para garantir que os benefícios da AGI superem substancialmente os riscos.
O Futuro do Treinamento de IA
O futuro do treinamento de IA provavelmente envolverá mais monitoramento do desempenho do modelo durante o treinamento para garantir que ele não esteja excedendo significativamente seu desempenho previsto. Isso ajudará a garantir que os modelos de IA sejam seguros e confiáveis.
Engenharia de Representação
A engenharia de representação é uma nova abordagem para a IA que envolve dar aos modelos um conjunto de prompts relacionados a certos conceitos, como felicidade ou risco. Registrando os padrões de ativações desencadeados por certos tokens ou palavras, os pesquisadores podem extrair direções ou vetores de veracidade, nocividade, risco e felicidade. Essa abordagem tem o potencial de tornar os modelos de IA mais compatíveis e verdadeiros.
Inserindo Emoção em Modelos de IA
Inserir emoção em modelos de IA pode torná-los mais compatíveis e melhorar seu desempenho em uma variedade de benchmarks. Ao dar um prompt de emoção no final de uma solicitação, os pesquisadores podem influenciar o humor do modelo e melhorar seu desempenho.
Otimismo e Consenso
Apesar dos muitos desafios enfrentados pelo desenvolvimento da AGI, há motivos para otimismo. A cúpula de segurança da IA destacou o fato de que há mais concordância entre as pessoas-chave em todos os lados do que se poderia pensar, o que é um bom presságio para um progresso sensato no campo da segurança da IA. À medida que continuamos a progredir no campo da IA, é importante permanecer vigilante e priorizar a segurança e a confiabilidade acima de tudo.
🎉 Destaques
- As previsões para os cronogramas de AGI variam amplamente, mas há motivos para acreditar que a IA de nível humano pode ser alcançada dentro da próxima década.
- A Cúpula de Segurança da IA é um evento anual que reúne os principais especialistas em IA para discutir as preocupações de segurança em torno do desenvolvimento da AGI.
- O novo modelo Gemini do Google está pronto para ser lançado nos próximos dois meses e espera-se que seja mais multimodal do que os modelos existentes.
- A Casa Branca emitiu recentemente uma ordem executiva exigindo que as empresas relatem a segurança e a segurança do peso do modelo de qualquer modelo treinado usando uma quantidade de flops maior que 10 para a 26.
- A engenharia de representação é uma nova abordagem para a IA que envolve dar aos modelos um conjunto de prompts relacionados a certos conceitos, como felicidade ou risco.
- Inserir emoção em modelos de IA pode torná-los mais compatíveis e melhorar seu desempenho em uma variedade de benchmarks.