16 Momentos Surpreendentes e Fascinantes da Volta ao Mundo de Sam Altman
🤖 Introdução
Sam Altman, CEO da OpenAI, tem estado numa volta ao mundo, partilhando as suas ideias sobre inteligência artificial (IA) e o seu impacto na humanidade. Depois de assistir a mais de 10 horas de entrevistas, compilei uma lista de 16 momentos surpreendentes e fascinantes da sua volta ao mundo. Desde a IA a projetar novas IA até aos novos vazamentos de Chachi PT a disparar railguns para open source, aqui está tudo o que aprendi, sem ordem particular.
1. IA a Projetar a Sua Própria Arquitetura
Sam Altman alerta para o facto de as IA estarem a projetar a sua própria arquitetura. Ele acredita que seria um erro entregar o processo de tomada de decisão às IA e deixá-las mudar a sua própria arquitetura. O futuro da humanidade deve ser determinado pela humanidade, e é uma escolha ativa que podemos fazer. Embora pareça uma boa ideia, há o risco de um dos seus modelos projetar o próximo modelo, e estamos definitivamente muito preocupados com a superinteligência.
2. Riscos da Superinteligência
Sam Altman e o cientista-chefe da OpenAI, Ilya Satskova, concordaram que os riscos da superinteligência não eram ficção científica. Seria um grande erro construir uma IA de superinteligência que não sabemos como controlar. O mundo deve tratá-la como algo que podemos ter de enfrentar na próxima década, o que não é muito tempo.
3. Aviso de Sam Altman Sobre a Corrida da IA
Sam Altman insinuou duas vezes, uma vez na Jordânia e outra na Índia, possíveis arrependimentos que poderia ter por ter disparado o tiro de partida na corrida da IA. Ele espera que daqui a 20 anos, tudo o que possamos dizer é que fizemos muito mais bem do que mal. O lado negativo da IA é bastante grande, e sentimos esse peso todos os dias. A hipótese de termos disparado a indústria de um railgun e agora não termos muito impacto é algo que o mantém acordado à noite.
4. CEO da OpenAI a Desfrutar do Poder
Sam Altman disse que gosta do poder que ser CEO da OpenAI lhe traz, mas também mencionou decisões estranhas que poderá ter de tomar. Ele tem muitas razões egoístas para fazer isto, e tem todo o poder de dirigir a OpenAI. Ele não acha que seja particularmente altruísta porque já tem muito dinheiro, e o dinheiro vai acumular-se mais rápido do que ele pode gastá-lo de qualquer maneira.
5. Riscos da Superinteligência
Wajac Zaremba, co-fundador da OpenAI, concordou que os riscos da superinteligência estão a 10 anos de distância. O medo é o medo da IA do futuro, não da IA de hoje. Se a trajetória em que estamos continuar, então daqui a uma década ou mais, serão construídos sistemas tão poderosos como as corporações de hoje.
6. Deep Fake de Sam Altman
Sam Altman não parecia muito perturbado não só com um deep fake de si mesmo, mas também com a sociedade a habituar-se à desinformação. Ele acha que, como sociedade, vamos estar à altura da ocasião, e vamos aprender muito rapidamente que não confiamos em vídeos a menos que confiemos na proveniência.
7. Nenhuma Regulação dos Modelos Atuais
Ao longo da volta ao mundo, Sam Altman afirmou repetidamente que não acreditava que devesse haver qualquer regulação dos modelos atuais. Ele acha que todos querem uma ótima educação, ganhos de produtividade, descoberta de novas ciências e tudo o que vai acontecer, e ninguém quer destruir o mundo. Ele acredita que é possível não sufocar a inovação e abordar os grandes riscos.
8. Open Source Imbatível
Sam Altman chamou imbatível ao open source e percebeu que o open source é imbatível e não deve ser parado. Esta coisa vai estar lá fora, e como sociedade, temos de nos adaptar.
9. Resolução das Alterações Climáticas
Sam Altman e Ilya Satsukver falaram sobre a resolução das alterações climáticas. Uma vez que tenhamos uma superinteligência realmente poderosa, abordar as alterações climáticas não será particularmente difícil para um sistema como esse. Se pudermos acelerar o progresso científico, poderíamos chegar a uma captura de carbono muito avançada muito mais rapidamente.
10. Deslocação Económica
Ilya Satsukovar deu uma resposta honesta sobre a deslocação económica. Embora novos empregos sejam criados, vai ser um longo período de incerteza económica. Há um argumento a ser feito de que mesmo quando tivermos IA de nível humano completo, as pessoas ainda terão atividade económica a fazer.
Prós e Contras
Prós:
- A IA pode ajudar a resolver alguns dos maiores problemas do mundo, como as alterações climáticas.
- A IA pode melhorar a produtividade e a educação.
- A IA pode ajudar-nos a descobrir novas ciências.
Contras:
- Os riscos da superinteligência não são ficção científica.
- As mudanças no mercado de trabalho serão dramáticas e seguiremos a história de perto.
Destaque
- Sam Altman alerta para o facto de as IA estarem a projetar a sua própria arquitetura.
- Os riscos da superinteligência não são ficção científica.
- Sam Altman acha que todos querem uma ótima educação, ganhos de produtividade, descoberta de novas ciências e tudo o que vai acontecer, e ninguém quer destruir o mundo.
- Sam Altman chamou imbatível ao open source e percebeu que o open source é imbatível e não deve ser parado.
- Uma vez que tenhamos uma superinteligência realmente poderosa, abordar as alterações climáticas não será particularmente difícil para um sistema como esse.
FAQ
Q: Qual é o maior risco da IA?
A: O maior risco da IA é a superinteligência.
Q: Deve haver alguma regulação dos modelos atuais?
A: Sam Altman afirmou repetidamente que não acreditava que devesse haver qualquer regulação dos modelos atuais.
Q: A IA pode ajudar a resolver as alterações climáticas?
A: Sim, uma vez que tenhamos uma superinteligência realmente poderosa, abordar as alterações climáticas não será particularmente difícil para um sistema como esse.
Q: As pessoas ainda terão atividade económica a fazer quando tivermos IA de nível humano completo?
A: Há um argumento a ser feito de que mesmo quando tivermos IA de nível humano completo, as pessoas ainda terão atividade económica a fazer.