📝 Índice
Introdução
- A Parte Acentuada do Exponencial
- Quatro Razões Pelas Quais a IA Não Está Desacelerando
Qualidade dos Dados
- A Importância da Qualidade dos Dados
- Arquitetura Mamba
- Expansão de Estado Consciente do Hardware
Modelos que Pensam Antes de Responder
- Progresso Multimodal
- Tempo de Inferência Computacional
- Otimização de Prompt
O Futuro da IA
- Ampliando Modelos
- Saída de Vídeo de Texto Fotorealista
- O Dynamo dos Desenhos Animados
Conclusão
- IA Explicada por Phillip
Introdução
Bem-vindo a este artigo sobre o futuro da IA. Neste artigo, exploraremos as razões pelas quais a IA não está desacelerando e o que podemos esperar nos próximos anos. Discutiremos a importância da qualidade dos dados, a arquitetura Mamba, modelos que pensam antes de responder e o futuro da IA.
A Parte Acentuada do Exponencial
Ao entrarmos em 2024, estamos na parte acentuada da curva de crescimento exponencial da IA. Isso significa que a IA está avançando em um ritmo sem precedentes e continuará fazendo isso no futuro previsível. Neste artigo, exploraremos as razões pelas quais a IA não está desacelerando e o que podemos esperar nos próximos anos.
Quatro Razões Pelas Quais a IA Não Está Desacelerando
Existem quatro razões claras pelas quais a IA não está desacelerando. Primeiro, a qualidade dos dados mudará tudo. Segundo, os modelos começarão a pensar antes de responder. Terceiro, há muitas oportunidades fáceis na IA que não exigem mais poder de processamento. Quarto, há uma explosão de progresso multimodal ocorrendo ao nosso redor.
Qualidade dos Dados
A Importância da Qualidade dos Dados
A qualidade dos dados é a base da IA. Sem dados de alta qualidade, os modelos de IA não podem aprender e melhorar. Os famosos autores do Mamba e Mix Trial enfatizaram a importância da qualidade dos dados. Segundo eles, toda a parte de arquitetura é divertida, mas, no final, trata-se dos dados. A curva da lei de escalonamento mostra que diferentes arquiteturas geralmente teriam a mesma inclinação, e a única coisa que muda a inclinação é a qualidade dos dados.
Arquitetura Mamba
A arquitetura Mamba é uma nova arquitetura que tem gerado muita repercussão nos círculos de IA. Ela está causando ondas de choque porque é construída com a consciência do tipo de GPUs em que será executada. A arquitetura Mamba é projetada para processar uma sequência de entradas atualizando um estado de tamanho fixo passo a passo. Essa abordagem significa menos conexões para processar e, portanto, inferência mais rápida. O artigo afirma uma inferência 5 vezes mais rápida no Nvidia A100.
Expansão de Estado Consciente do Hardware
A arquitetura Mamba utiliza a expansão de estado consciente do hardware. É uma arquitetura construída com a consciência do tipo de GPUs em que será executada. O estado precisa comprimir todos os dados que viu, incluindo ignorar determinadas entradas, e é aí que entra o mecanismo de seleção. Ele decide quais entradas ignorar e em quais se concentrar. O estado oculto rico e expressivo com as entradas selecionadas destiladas é lento de processar e computacionalmente exigente. A arquitetura Mamba expande esse estado sem parar tudo, processando-o na SRAM da GPU, que é a parte super-rápida da memória da GPU com o menor tempo de deslocamento até o chip de processamento.
Modelos que Pensam Antes de Responder
Progresso Multimodal
Há uma explosão de progresso multimodal ocorrendo ao nosso redor. Os modelos podem gerar alguns quadros de vídeo e, cada vez mais, podem gerar o vídeo inteiro. Existem modelos do mundo que dizem: "Se você dirigir um carro assim, como a rua ficará? Como as pessoas ficarão? O que acontecerá? Você vai bater em algo?" No futuro, os modelos terão esse conhecimento do mundo, e essa geração se assemelhará muito mais ao que chamamos de raciocínio.
Tempo de Inferência Computacional
O tempo de inferência computacional é a capacidade do modelo de decidir quanto poder de processamento alocar para determinados problemas. Permitir que os modelos pensem por mais tempo ocasionalmente terá desvantagens. A inferência às vezes pode ser mais lenta e mais custosa, mas que custo de inferência pagaríamos por um novo medicamento contra o câncer ou pela prova da hipótese de reanimação? O código Alpha 2 nos dá uma previsão do tipo de resultados que podemos esperar.
Otimização de Prompt
A otimização de prompt permite que os modelos de linguagem otimizem seus próprios prompts. Existem muitas técnicas para fazer isso, mas os métodos manuais que estamos desenvolvendo são nossas abordagens manuais frágeis. Uma vez que implantamos modelos de linguagem para nos ajudar a otimizar os prompts que entram nos modelos de linguagem, podemos ver um desempenho dramaticamente melhor.
O Futuro da IA
Ampliando Modelos
A ampliação de modelos para 10 trilhões de parâmetros ou até mesmo 100 trilhões de parâmetros é prometida pela AI eted. Ainda estamos longe de concluir os ganhos exponenciais na IA. Os pesquisadores também poderiam estudar se há um limite para a melhoria total que se pode obter com aprimoramentos pós-treinamento, o que permitiria aos laboratórios de IA prever melhor o quão capaz seu modelo pode se tornar no futuro.
Saída de Vídeo de Texto Fotorealista
Em 2024, podemos ver uma saída de vídeo de texto fotorealista de 3 a 5c que poderia enganar a maioria dos humanos. A transformação de texto em imagem já está produzindo imagens surpreendentemente realistas.
O Dynamo dos Desenhos Animados
O cartunista Harold Tucker Webster previu há cem anos como seria o mundo dos desenhos em 2023. Ele chamou isso de Dynamo dos Desenhos Animados. No futuro, podemos ver desenhos animados gerados por IA.
Conclusão
Em conclusão, a IA não está desacelerando, e podemos esperar melhorias dramáticas nos próximos anos. A importância da qualidade dos dados, a arquitetura Mamba, modelos que pensam antes de responder e a otimização de prompt são apenas algumas das razões pelas quais a IA não está desacelerando. Como sempre, tenha um ótimo dia.
Destaque
- A Parte Acentuada do Exponencial
- Quatro Razões Pelas Quais a IA Não Está Desacelerando
- A Importância da Qualidade dos Dados
- Arquitetura Mamba
- Expansão de Estado Consciente do Hardware