Declarações de IA e Cronogramas de AGI - Parecem Mais Otimistas?

Declarações de IA e Cronogramas de AGI - Parecem Mais Otimistas?

March 17, 2024
Partilhar
Autor: Big Y

🤖 O Futuro Incognoscível da IA: Previsões, Segurança e Progresso

A inteligência artificial (IA) percorreu um longo caminho na última década e a próxima geração de modelos de IA está pronta para revolucionar a forma como vivemos e trabalhamos. No entanto, o futuro da IA ainda é amplamente desconhecido e as previsões sobre quando alcançaremos a IA de nível humano (AGI) variam amplamente. Neste artigo, exploraremos algumas das últimas previsões dos principais especialistas em IA, bem como as preocupações de segurança em torno do desenvolvimento da AGI. Também discutiremos o progresso sendo feito no campo da segurança da IA e a necessidade de dados confiáveis para orientar pesquisas futuras.

📚 Índice

- Introdução

- Previsões para Cronogramas de AGI

- A Cúpula de Segurança da IA

- O Novo Modelo Gemini do Google

- Ordem Executiva sobre Flops

- Política de Desenvolvimento Informada por Riscos da OpenAI

- O Futuro do Treinamento de IA

- Engenharia de Representação

- Inserindo Emoção em Modelos de IA

- Otimismo e Consenso

Previsões para Cronogramas de AGI

Shane Legg, co-fundador do Google DeepMind e seu cientista-chefe de AGI, fez uma previsão há mais de uma década de que a IA de nível humano seria alcançada até 2025. Recentemente, ele reiterou essa previsão, afirmando que há uma chance de 50% de que a AGI seja alcançada até 2028. No entanto, ele também reconheceu que os problemas restantes com modelos de linguagem grandes (LLMs) são solucionáveis nesse curto período de tempo. Ele acredita que os modelos existentes amadurecerão, tornando-se menos delirantes e mais factuais, e que se tornarão mais multimodais, tornando-os muito mais úteis.

O ex-chefe de alinhamento da OpenAI, Paul Cristiano, fez uma previsão no podcast Fantastic Geeks de que haveria uma chance de 15% de uma IA capaz de fazer uma Esfera de Dyson até 2030, com uma chance de 40% até 2040. Embora essa seja uma previsão altamente agressiva, destaca o potencial da IA para alcançar feitos incríveis nos próximos anos.

A Cúpula de Segurança da IA

A Cúpula de Segurança da IA é um evento anual que reúne os principais especialistas em IA para discutir as preocupações de segurança em torno do desenvolvimento da AGI. Na cúpula de 2021, as empresas foram solicitadas a elaborar sua política de escalonamento de capacidade responsável, que descreve as condições sob as quais elas interromperiam ou pausariam o escalonamento. A política da OpenAI é uma política de desenvolvimento informada por riscos, que reconhece os riscos associados à AGI, mas também reconhece que aumentos dramáticos na capacidade podem ser alcançados sem aumentos significativos na escala.

O Novo Modelo Gemini do Google

O novo modelo Gemini do Google está pronto para ser lançado nos próximos dois meses. Espera-se que seja mais multimodal do que os modelos existentes, tornando-o muito mais útil. Gemini é apenas um exemplo do progresso sendo feito no campo da IA e destaca o potencial da IA para revolucionar a forma como vivemos e trabalhamos.

Ordem Executiva sobre Flops

A Casa Branca emitiu recentemente uma ordem executiva exigindo que as empresas relatem a segurança e a segurança do peso do modelo de qualquer modelo treinado usando uma quantidade de flops maior que 10 para a 26. Isso é mais poder de computação bruto do que qualquer modelo que está atualmente em uso foi treinado. Embora alguns tenham criticado o uso de computação como medida para regulamentação, outros argumentam que é uma maneira eficaz de garantir que os modelos de IA sejam seguros e confiáveis.

Política de Desenvolvimento Informada por Riscos da OpenAI

A política de desenvolvimento informada por riscos da OpenAI reconhece os riscos associados à AGI, mas também reconhece que aumentos dramáticos na capacidade podem ser alcançados sem aumentos significativos na escala. A política é projetada para garantir que os benefícios da AGI superem substancialmente os riscos.

O Futuro do Treinamento de IA

O futuro do treinamento de IA provavelmente envolverá mais monitoramento do desempenho do modelo durante o treinamento para garantir que ele não esteja excedendo significativamente seu desempenho previsto. Isso ajudará a garantir que os modelos de IA sejam seguros e confiáveis.

Engenharia de Representação

A engenharia de representação é uma nova abordagem para a IA que envolve dar aos modelos um conjunto de prompts relacionados a certos conceitos, como felicidade ou risco. Registrando os padrões de ativações desencadeados por certos tokens ou palavras, os pesquisadores podem extrair direções ou vetores de veracidade, nocividade, risco e felicidade. Essa abordagem tem o potencial de tornar os modelos de IA mais compatíveis e verdadeiros.

Inserindo Emoção em Modelos de IA

Inserir emoção em modelos de IA pode torná-los mais compatíveis e melhorar seu desempenho em uma variedade de benchmarks. Ao dar um prompt de emoção no final de uma solicitação, os pesquisadores podem influenciar o humor do modelo e melhorar seu desempenho.

Otimismo e Consenso

Apesar dos muitos desafios enfrentados pelo desenvolvimento da AGI, há motivos para otimismo. A cúpula de segurança da IA destacou o fato de que há mais concordância entre as pessoas-chave em todos os lados do que se poderia pensar, o que é um bom presságio para um progresso sensato no campo da segurança da IA. À medida que continuamos a progredir no campo da IA, é importante permanecer vigilante e priorizar a segurança e a confiabilidade acima de tudo.

🎉 Destaques

- As previsões para os cronogramas de AGI variam amplamente, mas há motivos para acreditar que a IA de nível humano pode ser alcançada dentro da próxima década.

- A Cúpula de Segurança da IA é um evento anual que reúne os principais especialistas em IA para discutir as preocupações de segurança em torno do desenvolvimento da AGI.

- O novo modelo Gemini do Google está pronto para ser lançado nos próximos dois meses e espera-se que seja mais multimodal do que os modelos existentes.

- A Casa Branca emitiu recentemente uma ordem executiva exigindo que as empresas relatem a segurança e a segurança do peso do modelo de qualquer modelo treinado usando uma quantidade de flops maior que 10 para a 26.

- A engenharia de representação é uma nova abordagem para a IA que envolve dar aos modelos um conjunto de prompts relacionados a certos conceitos, como felicidade ou risco.

- Inserir emoção em modelos de IA pode torná-los mais compatíveis e melhorar seu desempenho em uma variedade de benchmarks.

- End -
VOC AI Inc. 8 The Green,Ste A, in the City of Dover County of Kent, Delaware Zip Code: 19901 Copyright © 2024 VOC AI Inc.All Rights Reserved. Termos e Condições Política de Privacidade
Este sítio Web utiliza cookies
A VOC AI utiliza cookies para garantir o bom funcionamento do site, para armazenar algumas informações sobre as suas preferências, dispositivos e acções passadas. Estes dados são agregados ou estatísticos, o que significa que não poderemos identificá-lo individualmente. Pode encontrar mais pormenores sobre os cookies que utilizamos e como retirar o consentimento na nossa Política de Privacidade.
Utilizamos o Google Analytics para melhorar a experiência do utilizador no nosso sítio Web. Ao continuar a utilizar o nosso sítio, está a consentir a utilização de cookies e a recolha de dados pelo Google Analytics.
Aceita estes cookies?
Aceitar todos os cookies
Rejeitar todos os cookies