📚 Índice
Introducción
- La Naturaleza Complicada de las Cosas
El Drama de OpenAI
- El Reencuentro del Presidente y Cofundador de OpenAI
- La Incertidumbre sobre el Futuro de Ilia Satova en OpenAI
- El Modelo Rumoreado QAR y sus Implicaciones
- El Despido de Samman por parte de la Junta Directiva y la Exclusiva de The New Yorker
- La Revisión Independiente de los Eventos que Condujeron al Despido de Samman
Gemini y Google DeepMind
- El Retraso de Gemini y su Modelo Multimodal
- El Desafío de las Fugas de Seguridad Multilingües
- El Retraso de la Tienda OpenAI GPT
- La Vulnerabilidad de los Archivos Cargados y la Extracción Escalable de Datos de Entrenamiento
El Problema de la Memorización y los Materiales con Derechos de Autor
- La Memorización de Datos de Entrenamiento en los Modelos de OpenAI
- El Documento Speak Memory y los Materiales con Derechos de Autor
- El Futuro de los Conjuntos de Datos Sintéticos
Conclusión
- Las Asombrosas Posibilidades de la IA
Introducción
Las cosas suelen ser más complicadas de lo que parecen a primera vista. Esto es especialmente cierto en el mundo de la inteligencia artificial (IA), donde los avances y las controversias parecen suceder a diario. En este artículo, exploraremos siete ejemplos de esta complejidad, comenzando con el drama que rodea a OpenAI y su modelo rumoreado QAR. También discutiremos el retraso de Gemini, el modelo multimodal de Google DeepMind, y la vulnerabilidad de los archivos cargados y la extracción escalable de datos de entrenamiento. Por último, examinaremos el problema de la memorización y los materiales con derechos de autor, así como el futuro de los conjuntos de datos sintéticos.
El Drama de OpenAI
El Reencuentro del Presidente y Cofundador de OpenAI
El drama que rodea a OpenAI comenzó con el reencuentro del presidente y cofundador de OpenAI, Greg Brockman, y su científico jefe, Ilia Satova. Mientras los dos intercambiaban corazones, no estaba claro si Satova se quedaría en OpenAI. En su mensaje a OpenAI cuando regresó como CEO, Samman dijo que aunque Satova ya no formaría parte de la junta directiva, esperaba continuar su relación laboral. A pesar de que Satova despidió a Samman, este último dijo que amaba y respetaba a Satova y no albergaba ningún resentimiento hacia él.
La Incertidumbre sobre el Futuro de Ilia Satova en OpenAI
La incertidumbre sobre el futuro de Satova en OpenAI es solo un ejemplo de la naturaleza complicada de las cosas. Otro ejemplo es el modelo rumoreado QAR, que algunos investigadores de OpenAI creen que incluso podría ser una amenaza para la humanidad. Mientras que la CTO y ex CEO, Mira Murati, dijo que los eventos relacionados con el despido de Samman no tenían nada que ver con la seguridad, el comentario de Samman sobre la "filtración desafortunada" parecía implicar que hay investigadores preocupados por la seguridad de sus últimos avances.
El Modelo Rumoreado QAR y sus Implicaciones
El modelo rumoreado QAR es solo un ejemplo de la naturaleza complicada de las cosas en el mundo de la IA. Mientras que algunos investigadores de OpenAI creen que podría ser una amenaza para la humanidad, otros creen que es infundado. La incertidumbre que rodea a QAR es solo un ejemplo de la complejidad de la investigación y el desarrollo de la IA.
El Despido de Samman por parte de la Junta Directiva y la Exclusiva de The New Yorker
El despido de Samman por parte de la junta directiva es otro ejemplo de la naturaleza complicada de las cosas. En una exclusiva de The New Yorker, nos enteramos de que algunos miembros de la junta consideraban a Samman un operador escurridizo y perturbador. Uno de los miembros de la junta, Helen Tona, había escrito un artículo ligeramente crítico sobre el lanzamiento de Chat GPT. Samman comenzó a acercarse individualmente a otros miembros de la junta para reemplazarla, y algunos sintieron que los había tergiversado y enfrentado entre sí al mentir sobre lo que pensaban los demás.
La Revisión Independiente de los Eventos que Condujeron al Despido de Samman
La revisión independiente de los eventos que condujeron al despido de Samman es otro ejemplo de la naturaleza complicada de las cosas. Samman dijo que estaba muy emocionado por la revisión, que arrojará más luz sobre el drama que rodea a OpenAI. Si bien nosotros, como observadores externos, no tenemos idea de la realidad actual, lo que sí sabemos es que se escribirán libros sobre esta saga de OpenAI.
Gemini y Google DeepMind
El Retraso de Gemini y su Modelo Multimodal
El retraso de Gemini es otro ejemplo de la naturaleza complicada de las cosas. Según The Information, Gemini es el modelo multimodal de Google DeepMind que se supone que es un competidor o una mejora de GPT 4. El retraso fue causado aparentemente por el deseo de la empresa de asegurarse de que el modelo principal sea tan bueno como o mejor que GPT 4. La empresa sigue realizando mejoras porque quiere que la tecnología funcione bien a nivel mundial en numerosos idiomas.
El Desafío de las Fugas de Seguridad Multilingües
El desafío de las fugas de seguridad multilingües es otro ejemplo de la naturaleza complicada de las cosas. Los idiomas de recursos limitados incluso pueden comprometer modelos de vanguardia, y ha habido artículos al respecto desde la primavera. El rendimiento de los modelos en diferentes idiomas es uno de sus principales puntos de venta, y a Google DeepMind le preocupa esas fugas de seguridad multilingües debido a esto.
El Retraso de la Tienda OpenAI GPT
El retraso de la tienda OpenAI GPT es otro ejemplo de la naturaleza complicada de las cosas. La tienda debía ser una forma de monetizar los bots que creas en ese lugar, pero ha habido algunas preguntas sobre los archivos cargados. Los archivos cargados son descargables al usar el intérprete de código, por lo que han configurado esta función como desactivada de forma predeterminada. También han agregado mensajes para explicarlo mejor.
La Vulnerabilidad de los Archivos Cargados y la Extracción Escalable de Datos de Entrenamiento
La vulnerabilidad de los archivos cargados y la extracción escalable de datos de entrenamiento es otro ejemplo de la naturaleza complicada de las cosas. Algunos investigadores de la Universidad Northwestern descubrieron que era sorprendentemente sencillo revelar información de estos GPT personalizados. La tasa de éxito fue del 100% para la filtración de archivos y del 97% para la extracción de indicaciones del sistema. El ataque que utilizaron fue un...