Phi-2, Imagen-2, Optimus-Gen-2: Kleine neue Modelle, um die Welt zu verändern?

Phi-2, Imagen-2, Optimus-Gen-2: Kleine neue Modelle, um die Welt zu verändern?

March 17, 2024
Teilen
Autor: Big Y

🤖 Der Aufstieg von F2: Ein Game-Changer in der generativen KI

In der Welt der generativen KI sollte das Jahr 2023 eigentlich ein Jahr des Rückgangs sein, mit mehr Fokus auf Feierlichkeiten als auf Modellen und dem MMLU. Diese Woche wurde jedoch die Veröffentlichung leistungsstarker neuer kleiner Modelle bekannt gegeben, die die KI-Landschaft im Jahr 2024 verändern könnten. In diesem Artikel werden wir uns F2 genauer ansehen, was es bedeutet und wie es Modelle vergleichbarer Größe übertrifft. Wir werden auch die Verrücktheit des MML-Brinkmanship, Optimus Gen 2 und vieles mehr diskutieren.

Inhaltsverzeichnis

- Einführung

- Was ist F2?

- Wie F2 Modelle vergleichbarer Größe übertrifft

- Die fünf Modellserien

- Die Veröffentlichung von F2

- Die Vorteile synthetischer Daten

- Vergleiche mit Gemini Nano 2 und Mistal

- Die Schwächen von Benchmarks

- Die Einführung von Imagin 2

- Der Aufstieg kleiner Modelle

- Optimus Gen 2

- Das Potenzial von Berührungsempfindlichkeit, Temperatur und Drucksensitivität

- Die AI Insiders Patreon-Stufe

- Die Fehler des MMLU

- Fazit

Was ist F2?

F2 ist ein Modell mit 2,7 Milliarden Parametern, was heutzutage als klein gilt. Tatsächlich ist es so klein, dass es problemlos auf einem Smartphone Platz finden könnte. Laut Benchmarks übertrifft F2 Modelle vergleichbarer Größe, wie solche, die mit Mamba trainiert wurden, sowie Googles neues Gemini Nano. Darüber hinaus übertrifft es auch Modelle, die 202-25 Mal so groß sind.

Wie F2 Modelle vergleichbarer Größe übertrifft

F2 wurde letzten Monat von Sassan Adella, dem CEO von Microsoft, angekündigt. Es wurde in nur 14 Tagen mit weniger als 100 A100-GPUs trainiert, und die Menge an Daten, einschließlich erneuter Lesevorgänge oder EPO, betrug 1,4 Billionen Tokens, das ist fünfmal mehr als F1.1.5 Web. Mehr Parameter bedeuten mehr Verbindungen, die hergestellt werden können, und mit mehr Rechenleistung können natürlich mehr Daten eingespeist und diese Daten öfter durchlaufen werden.

Die fünf Modellserien

Ich verfolge die fünf Modellserien seit Ende Juni, als ich Ronan Lan interviewt habe, einen der Hauptautoren des ursprünglichen F1-Papiers. Es gab starke Hinweise auf die Bedeutung von F1 in meinem ursprünglichen Video vom 2. Juli über Lehrbücher. Ich werde versuchen, Ihnen in weniger als 3 Minuten alle notwendigen Hintergrundinformationen zu F1, F1.5 und F2 zu geben. Im Wesentlichen haben sie einen Stapel von permissiv lizenziertem Open-Source-Code aus dem sogenannten Stack extrahiert. Es gibt zehnmal mehr als sie verwendet haben. Aus diesem Datensatz haben sie nur den Python-Code aus den vielen Programmiersprachen extrahiert und auch Duplikate herausgefiltert. Für F1 haben sie dann GPC4 mit einer Aufgabenauswahl für Code von Lehrbuchqualität ausgestattet, das heißt Code mit angemessenen Kommentaren und guter Syntax, um Kosten zu sparen. Sie haben einen winzigen Klassifizierer eingebaut, um die Arbeit zu beenden, die GPT-4 begonnen hat. Dieser Klassifizierer imitiert im Wesentlichen die Kennzeichnung, die GPT-4 gestartet hat. Dann haben sie GPT 3.5 dazu gebracht, seine eigenen vielfältigen Daten von Lehrbuchqualität und synthetische Frage-Antwort-Übungen zu generieren. Für weitere Details dazu schauen Sie sich das ursprüngliche Video im Juli an, das ein Interview mit einem der Hauptbeiträger enthielt.

Die Veröffentlichung von F2

F2 wurde in den letzten 24 Stunden veröffentlicht und ist Open Source. In der Beschreibung gibt es einen Link, der beschreibt, wie man F2 herunterladen kann. Ein Nebeneffekt des Trainings mit synthetischen Daten ist, dass diese tendenziell weniger toxische Daten enthalten. Die Toxizitätswerte sind bei F2 insgesamt gesunken, und das noch bevor ein verstärkendes Lernen durch menschliches Feedback stattgefunden hat.

Die Vorteile synthetischer Daten

Wie einer der Forscher des Projekts sagte: "Unsere Bemühungen mit F2 zeigen, dass wir enorme Rechenleistungen für eher ineffektive Trainingsdaten verschwendet haben." Ein Modell mit allen verfügbaren Daten zu füttern hat einen hohen Preis und führt zu einer geringeren Qualität auf dem Bildschirm.

Vergleiche mit Gemini Nano 2 und Mistal

Vergleiche mit Gemini Nano 2 und Mistal mit jeweils 7 Milliarden Parametern zeigen, dass F2 Modelle vergleichbarer Größe übertrifft. Angesichts der Tatsache, dass eines der anderen Themen dieses Videos die Schwächen von Benchmarks behandelt, weiß ich, was viele von Ihnen denken: Können wir diesen Benchmark-Zahlen vollständig vertrauen?

Die Schwächen von Benchmarks

Der MMLU ist in vielerlei Hinsicht ein fehlerhafter Benchmark. Tatsächlich werde ich dieses Video mit einem Ausschnitt aus meinem ursprünglichen Smart GPT-Video beenden, in dem einige der Fehler auf diesem Benchmark aufgezeigt werden. Ich bin ehrlich gesagt schockiert, dass er Ende 2023 immer noch verwendet wird, um Modelle bis auf zwei Dezimalstellen zu vergleichen.

Die Einführung von Imagin 2

Heute hat Google Imagin 2 veröffentlicht, ein Diffusionsmodell. Bei der Verwendung sind Sie von Google vor Urheberrechtsverletzungen geschützt, und alle Generationen sind mit Wasserzeichen versehen. Die Qualität sieht beeindruckend aus, insbesondere wenn Sie sich die Bilder oben rechts und unten in der Mitte ansehen.

Der Aufstieg kleiner Modelle

Das Thema des heutigen Videos sind kleine Modelle, und hier ist der 10 kg leichtere humanoide Roboter der Generation 2 von Tesla, Optimus Gen 2. Beim Betrachten dieses Videos denke ich an Berührungsempfindlichkeit, Temperatur und Drucksensitivität als völlig neue Modalitäten, die noch vollständig erforscht werden müssen.

Optimus Gen 2

Optimus Gen 2 ist ein Game-Changer in der Welt der Robotik. Es handelt sich um einen 10 kg leichteren humanoiden Roboter der Generation 2 von Tesla.

Die AI Insiders Patreon-Stufe

Heute ist der offizielle Start der AI Insiders Patreon-Stufe. Als Mitglied erhalten Sie Zugang zu klassischen AI-Erklärungsvideos, Bonusinhalten, dem AI Insiders Podcast, Tutorials und der Insiders Arena.

Die Fehler des MMLU

Der MMLU ist voller Fehler, von mehrdeutigen Fragen bis hin zu falschen Antworten. Diese Fehler könnten ein Modell möglicherweise verwirren, und wir müssen uns ihrer bewusst sein, wenn wir den MMLU als Benchmark verwenden.

Fazit

Zusammenfassend ist F2 ein Game-Changer in der Welt der generativen KI. Es übertrifft Modelle vergleichbarer Größe und ist Open Source. Wir müssen jedoch die Schwächen von Benchmarks wie dem MMLU und das Potenzial für Fehler in den Daten beachten. Mit kleinen Modellen wie Optimus Gen 2 und dem Aufstieg von Berührungsempfindlichkeit, Temperatur und Drucksensitivität sieht die Zukunft der KI vielversprechend aus.

- End -
VOC AI Inc. 8 The Green,Ste A, in the City of Dover County of Kent, Delaware Zip Code: 19901 Copyright © 2024 VOC AI Inc.All Rights Reserved. Bedingungen und Konditionen Hinweise zum Datenschutz
Diese Website verwendet Cookies
VOC AI verwendet Cookies, um sicherzustellen, dass die Website ordnungsgemäß funktioniert, und um einige Informationen über Ihre Präferenzen, Geräte und vergangenen Aktionen zu speichern. Diese Daten sind aggregiert oder statistisch, was bedeutet, dass wir nicht in der Lage sind, Sie individuell zu identifizieren. Weitere Einzelheiten über die von uns verwendeten Cookies und wie Sie Ihre Zustimmung zurückziehen können, finden Sie in unserer Hinweise zum Datenschutz.
Wir verwenden Google Analytics, um die Nutzererfahrung auf unserer Website zu verbessern. Indem Sie unsere Website weiter nutzen, stimmen Sie der Verwendung von Cookies und der Datenerfassung durch Google Analytics zu.
Sind Sie mit der Annahme dieser Cookies einverstanden?
Alle Cookies akzeptieren
Alle Cookies ablehnen