16 Überraschende und faszinierende Momente von Sam Altmans Welttournee
🤖 Einführung
Sam Altman, der CEO von OpenAI, war auf Welttournee und teilte seine Erkenntnisse über künstliche Intelligenz (KI) und deren Auswirkungen auf die Menschheit. Nachdem ich über 10 Stunden Interviews gesehen habe, habe ich eine Liste von 16 überraschenden und faszinierenden Momenten von seiner Tour zusammengestellt. Vom Entwurf neuer KI durch KI bis hin zu frischen Chachi PT-Leaks, die Railguns öffnen, hier ist alles, was ich in keiner bestimmten Reihenfolge gelernt habe.
1. KI entwirft ihre eigene Architektur
Sam Altman warnt davor, dass KIs ihre eigene Architektur entwerfen. Er glaubt, dass es ein Fehler wäre, den Entscheidungsprozess an KI zu übergeben und ihnen zu erlauben, ihre eigene Architektur zu ändern. Die Zukunft der Menschheit sollte von der Menschheit bestimmt werden, und es ist eine aktive Wahl, die wir treffen können. Obwohl es sich wie eine gute Idee anhört, besteht das Risiko, dass eines ihrer Modelle das nächste Modell entwirft, und wir sind definitiv sehr besorgt über Superintelligenz.
2. Risiken durch Superintelligenz
Sam Altman und der Chef-Wissenschaftler von OpenAI, Ilya Satskova, waren sich einig, dass die Risiken durch Superintelligenz keine Science-Fiction sind. Es wäre ein großer Fehler, eine Superintelligenz-KI zu entwickeln, die wir nicht kontrollieren können. Die Welt sollte es als etwas behandeln, dem wir uns möglicherweise in den nächsten zehn Jahren stellen müssen, was nicht sehr lange ist.
3. Sam Altmans Warnung vor dem KI-Wettlauf
Sam Altman deutete zweimal, einmal in Jordanien und einmal in Indien, mögliche Bedauern an, die er über das Starten des KI-Wettlaufs haben könnte. Er hofft, dass wir in 20 Jahren sagen können, dass wir weit mehr Gutes als Schlechtes getan haben. Die Nachteile von KI sind ziemlich groß, und wir spüren dieses Gewicht jeden Tag. Die hypothetische Situation, dass wir die Branche aus einer Railgun herausgeschossen haben und jetzt nicht mehr viel Einfluss haben, ist etwas, das ihn nachts wach hält.
4. Der CEO von OpenAI genießt die Macht
Sam Altman sagte, er genieße die Macht, die es mit sich bringt, CEO von OpenAI zu sein, erwähnte aber auch seltsame Entscheidungen, die er treffen müsste. Er hat viele egoistische Gründe, dies zu tun, und er hat die volle Macht, OpenAI zu leiten. Er glaubt nicht, dass es besonders altruistisch ist, weil er bereits viel Geld hat und das Geld schneller anhäuft, als er es ausgeben kann.
5. Risiken der Superintelligenz
Wajac Zaremba, Mitbegründer von OpenAI, stimmte zu, dass die Risiken der Superintelligenz in 10 Jahren bestehen. Die Angst besteht vor der KI der Zukunft, nicht vor der KI von heute. Wenn die aktuelle Entwicklung so weitergeht, werden in etwa einem Jahrzehnt Systeme entwickelt sein, die so leistungsfähig sind wie heutige Unternehmen.
6. Deepfakes und Fehlinformationen
Sam Altman schien nicht besonders besorgt zu sein, weder über einen Deepfake von sich selbst noch darüber, dass die Gesellschaft sich an Fehlinformationen gewöhnt. Er glaubt, dass wir als Gesellschaft uns der Herausforderung stellen und sehr schnell lernen werden, dass wir Videos nur dann vertrauen, wenn wir ihre Herkunft vertrauen. Wenn Menschen etwas wirklich Wichtiges sagen, werden sie es kryptografisch signieren.
7. Keine Regulierung der aktuellen Modelle
Während der Welttournee betonte Sam Altman immer wieder, dass er nicht glaubt, dass die aktuellen Modelle reguliert werden sollten. Jeder möchte eine gute Bildung, Produktivitätssteigerungen, neue wissenschaftliche Entdeckungen und all die Dinge, die passieren werden, und niemand möchte die Welt zerstören. Er glaubt, es wäre ein Fehler, die aktuellen Modelle von heute zu regulieren.
8. Anpassung von Modellen
Johannes Heidecker von OpenAI Research sprach über die Anpassung von Modellen. Sie versuchen, ihre Modelle besser darin zu machen, bestimmten Leitplanken zu folgen, die niemals überschrieben werden sollten, und sie versuchen auch, ihre Modelle besser anpassbar zu machen, indem sie stärker auf zusätzliche Anweisungen hören, welche Art von Verhalten der Benutzer oder Entwickler wünscht.
9. Vermischung von KI und Religion
Sam Altman wurde in Seoul nach der Vermischung von KI und Religion gefragt. Er denkt, dass es eine gute Frage ist, und wir haben bereits gesehen, dass Menschen KI-Pastoren bauen, zum Beispiel, und die Gläubigen können diesem Pastor Fragen stellen, Bibelverse zitieren und Ratschläge erhalten können.
10. Open Source ist unaufhaltsam
Sam Altman nannte Open Source unaufhaltsam und erkannte, dass es da sein wird und dass wir uns als Gesellschaft anpassen müssen. Als es darum ging, KI zu stoppen, wurde Samuelman nach seinen eigenen Lieben gefragt, und als Antwort gab er eine utopische Vision der Zukunft und nannte die aktuelle Welt barbarisch.
Vor- und Nachteile
Vorteile:
- KI hat das Potenzial, einige der größten Probleme der Welt zu lösen, wie den Klimawandel.
- KI kann uns zu einem besseren Lebensstandard verhelfen und unsere Lebensqualität verbessern.
- KI kann uns signifikante Fortschritte in Wissenschaft und Technik ermöglichen.
Nachteile:
- Die Risiken der Superintelligenz sind keine Science-Fiction, und wir müssen vorsichtig sein, wie wir KI entwickeln.
- KI hat das Potenzial, erhebliche wirtschaftliche Umwälzungen und Arbeitsplatzverluste zu verursachen.
- KI kann für bösartige Zwecke verwendet werden, wie die Schaffung von pandemieartigen Agenten.
Höhepunkte
- Sam Altman warnt davor, dass KIs ihre eigene Architektur entwerfen.
- Die Risiken der Superintelligenz sind keine Science-Fiction.
- Sam Altman deutete zweimal mögliche Bedauern an, die er über das Starten des KI-Wettlaufs haben könnte.
- Sam Altman glaubt, dass wir als Gesellschaft uns der Herausforderung stellen und sehr schnell lernen werden, dass wir Videos nur dann vertrauen, wenn wir ihre Herkunft vertrauen.
- Sam Altman betonte immer wieder, dass er nicht glaubt, dass die aktuellen Modelle reguliert werden sollten.
- Open Source ist unaufhaltsam, und als Gesellschaft müssen wir uns anpassen.
FAQ
F: Was sind die Risiken der Superintelligenz?
A: Die Risiken der Superintelligenz sind keine Science-Fiction. Es wäre ein großer Fehler, eine Superintelligenz-KI zu entwickeln, die wir nicht kontrollieren können.
F: Sollten die aktuellen Modelle reguliert werden?
A: Sam Altman betonte immer wieder, dass er nicht glaubt, dass die aktuellen Modelle reguliert werden sollten.