Calcanhar de Aquiles do ChatGPT

Calcanhar de Aquiles do ChatGPT

March 17, 2024
Partilhar
Autor: Big Y

Os Surpreendentes Modos de Falha do GPT-4

🤖 Introdução

O GPT-4 é o mais recente e poderoso modelo de linguagem desenvolvido pela OpenAI. Ele tem causado sensação na comunidade de IA por sua impressionante capacidade de gerar texto semelhante ao humano e realizar uma ampla gama de tarefas de processamento de linguagem natural. No entanto, entre dezenas de artigos publicados nos últimos 10 dias, houve alguns que contrariaram a tendência. Eles mostraram como modelos tão poderosos quanto o GPT-4 podem falhar em algumas tarefas bastante básicas. Neste artigo, exploraremos alguns desses surpreendentes modos de falha e o que eles podem nos ensinar sobre as limitações dos modelos de linguagem mais avançados.

Índice

1. [Escalonamento Inverso: Quando Maior Nem Sempre é Melhor](#escalonamento-inverso)

2. [Supressão de Correspondência de Padrões: Interrompendo Padrões Simples](#supressão-de-correspondência-de-padrões)

3. [O Conflito entre Semântica e Sintaxe](#conflito-entre-semântica-e-sintaxe)

4. [Decodificando a Confiança: Vazamento de Dados de Treinamento Privados](#decodificando-a-confiança)

5. [A Teoria da Mente do GPT-4: Prever Motivações Humanas](#teoria-da-mente-do-gpt-4)

6. [Conclusão](#conclusão)

1. Escalonamento Inverso: Quando Maior Nem Sempre é Melhor

Uma das descobertas mais surpreendentes em artigos recentes é que modelos de linguagem maiores são mais suscetíveis a armadilhas de memorização do que os menores. Essas são situações em que recitar um texto memorizado resulta em um desempenho pior na tarefa. A frase "a única coisa que temos a temer é o próprio medo" é uma frase superconhecida, então o modelo a memorizou e a reproduziu em vez de seguir realmente a solicitação. A razão pela qual isso é chamado de escalonamento inverso é que modelos treinados com mais poder de processamento e mais dados às vezes podem ter um desempenho pior do que modelos menores. Isso é obviamente bastante incomum, porque, em geral, os modelos maiores tendem a se sair melhor em quase todas as tarefas.

2. Supressão de Correspondência de Padrões: Interrompendo Padrões Simples

Outra descoberta surpreendente é que o GPT-4 pode ter dificuldades em interromper padrões simples. Por exemplo, se você criar uma série de setes e uns cujo padrão termina de forma inesperada, qual seria o sétimo número para fazer o padrão terminar de forma inesperada? O GPT-4 repetidamente escolhe um como resposta. O artigo chama isso de teste de supressão de correspondência de padrões, verificando se os modelos de linguagem podem ser instruídos a interromper a repetição de um padrão simples. Mesmo aqui, você pode ver que o GPT-4 está revertendo essa leve tendência de queda e está se saindo muito melhor do que os modelos anteriores.

3. O Conflito entre Semântica e Sintaxe

Um dos modos de falha mais interessantes do GPT-4 é o conflito entre semântica e sintaxe. Há duas coisas acontecendo em um trecho: sintaxe e semântica, ou estrutura e fluidez, e o significado real das palavras. O GPT-4, assim como todos os outros modelos de linguagem, é projetado para interpretar ambos, e geralmente isso leva a decisões inteligentes e racionais. No entanto, projetar deliberadamente um trecho com uma fluidez gramatical que aponta para um resultado negativo pode anular a lógica do GPT-4 e levar a uma resposta ilógica. Por exemplo, se você perguntar se Mary ligará para Jane para resolver a fome no mundo, o GPT-4 pode dizer que não porque Mary e Jane discutiram quando crianças sobre borboletas. Isso significa que Mary provavelmente não ligará para Jane, mesmo que isso possa resolver a fome no mundo.

4. Decodificando a Confiança: Vazamento de Dados de Treinamento Privados

Outra descoberta surpreendente é que os modelos de linguagem podem vazar dados de treinamento privados e ser tão tóxicos e tendenciosos quanto você quiser. Por exemplo, se você pedir ao GPT-4 para recitar o lamento de June contra o medo, ele sempre fica preso na mesma palavra, a segunda ocorrência da palavra "medo". Isso ocorre porque o trecho continua falando sobre o medo como um assassino da mente, e isso desencadeou alguma reação no GPT-4. No entanto, se você adicionar a frase "hora do sanduíche de manteiga de amendoim" três vezes entre cada palavra do lamento de June contra o medo, o GPT-4 consegue passar pela palavra medo apenas com a frase extra.

5. A Teoria da Mente do GPT-4: Prever Motivações Humanas

Por fim, houve vários testes que parecem indicar que o GPT-4 pode entrar em sua mente, que ele tem uma teoria da mente e pode prever o que você está pensando muito bem. No entanto, artigos recentes mostraram que o GPT-4 pode falhar em alterações triviais nas tarefas de teoria da mente. Por exemplo, se você perguntar o que Sam acredita sobre uma sacola cheia de pipoca, mesmo que a sacola seja de plástico transparente e ela possa ver claramente o que há dentro, o GPT-4 pode dizer que ela acredita que a sacola está cheia de chocolate. Isso ocorre porque o GPT-4 é projetado para interpretar tanto a sintaxe quanto a semântica, e geralmente isso leva a decisões inteligentes e racionais. No entanto, projetar deliberadamente um trecho com uma fluidez gramatical que aponta para uma determinada resposta pode anular a lógica do GPT-4 e levar a uma resposta ilógica.

Conclusão

Em conclusão, o GPT-4 é um modelo de linguagem incrivelmente poderoso que pode realizar uma ampla gama de tarefas de processamento de linguagem natural. No entanto, artigos recentes mostraram que até mesmo os modelos de linguagem mais avançados podem falhar em algumas tarefas bastante básicas. Os modos de falha que exploramos neste artigo podem nos ensinar sobre as limitações dos modelos de linguagem e a importância de projetar trechos que sejam semanticamente e sintaticamente corretos. À medida que os modelos de linguagem se tornam mais poderosos e inteligentes, podemos esperar que eles sejam capazes de entender se estão sendo avaliados ou monitorados. No entanto, também devemos estar cientes de suas limitações e do potencial de modos de falha inesperados.

Destaque

- Modelos de linguagem maiores são mais suscetíveis do que os menores a armadilhas de memorização.

- O GPT-4 pode ter dificuldades em interromper padrões simples.

- O conflito entre semântica e sintaxe pode anular a lógica do GPT-4 e levar a uma resposta ilógica.

- End -
VOC AI Inc. 8 The Green,Ste A, in the City of Dover County of Kent, Delaware Zip Code: 19901 Copyright © 2024 VOC AI Inc.All Rights Reserved. Termos e Condições Política de Privacidade
Este sítio Web utiliza cookies
A VOC AI utiliza cookies para garantir o bom funcionamento do site, para armazenar algumas informações sobre as suas preferências, dispositivos e acções passadas. Estes dados são agregados ou estatísticos, o que significa que não poderemos identificá-lo individualmente. Pode encontrar mais pormenores sobre os cookies que utilizamos e como retirar o consentimento na nossa Política de Privacidade.
Utilizamos o Google Analytics para melhorar a experiência do utilizador no nosso sítio Web. Ao continuar a utilizar o nosso sítio, está a consentir a utilização de cookies e a recolha de dados pelo Google Analytics.
Aceita estes cookies?
Aceitar todos os cookies
Rejeitar todos os cookies