Was Elon Musk über Investitionen in Crypto sagt
Was Elon Musk-Backed OptenAI’s GPT-3-System über Investitionen in Crypto sag
Kürzlich wurde GPT-3, das bahnbrechende System für künstliche Intelligenz (KI), das vom in San Francisco ansässigen Forschungslabor OpenAI gebaut wurde, zu Investitionen in verschiedene populäre Kryptowährungen befragt. Dieser Artikel stellt die Ergebnisse vor.
OpenAI wurde im Dezember 2015 von Elon Musk, Sam Altman, Ilya Sutskever, Greg Brockman, Wojciech Zaremba und John Schulman gegründet, die „gemeinsam 1 Milliarde US-Dollar zugesagt haben“.
Am 20. Februar 2018 kündigte OpenAI in einem Blog-Posting an, dass Musk aus dem Vorstand ausscheiden, aber weiterhin als Berater bei Bitcoin Code und Spender zur Verfügung stehen werde:
„Darüber hinaus wird Elon Musk aus dem Vorstand von OpenAI ausscheiden, aber weiterhin als Spender und Berater der Organisation tätig sein. Da Tesla sich weiterhin stärker auf KI konzentriert, wird dies einen möglichen zukünftigen Konflikt für Elon beseitigen“.
Ein Jahr später bestätigte Musk, der sowohl der CEO von SpaceX als auch von Tesla ist, auf Twitter, dass er seit über einem Jahr nicht mehr „eng“ mit OpenAI verbunden war, und erklärte, warum er die KI-Gesellschaft verlassen hatte:
Zur Klarstellung: Ich bin seit über einem Jahr nicht mehr eng mit OpenAI verbunden und habe weder mgmt noch Vorstandsaufsicht
Elon Moschus (@elonmusk) 17. Februar 2019
Ich musste mich auf die Lösung einer schmerzlich großen Zahl von Problemen in den Bereichen Technik und Fertigung bei Tesla (insbesondere) und SpaceX konzentrieren.
– Elon Moschus (@elonmusk) 17. Februar 2019Außerdem konkurrierte Tesla um einige der gleichen Leute wie OpenAI & Ich war mit einigen der Ziele des OpenAI-Teams nicht einverstanden. Fügen Sie das alles zusammen & es war einfach besser, sich im guten Einvernehmen zu trennen.Elon Musk (@elonmusk) 17. Februar 2019
Doch was war geschehen?
Einige Tage zuvor hatte OpenAI, wie Bloomberg berichtete, demonstriert, wie GPT-2 (Generative Pretrained Transformer 2), Version 2 eines von ihm erstellten generativen Sprachmodells auf der Basis eines neuronalen Netzes, realistisch klingende gefälschte Nachrichtenartikel mit mehreren Absätzen und nur einem Hauptabsatz erzeugen konnte.
Wie berichtete, beschloss OpenAI „aufgrund von Bedenken hinsichtlich des Missbrauchs, die ausgefeiltesten Versionen der Software nicht zu veröffentlichen oder freizugeben, obwohl es ein Tool laut Bitcoin Code schuf, mit dem Benutzer mit dem Algorithmus experimentieren konnten“.
GPT-3, der Nachfolger von GPT-2, wurde erstmals in einem im Mai veröffentlichten Papier beschrieben. Es war sofort klar, dass GPT-3 mit 175 Milliarden Parametern im Gegensatz zu den 1,5 Milliarden Parametern von GTP-2 das leistungsfähigste Sprachmodell aller Zeiten war.
Wie Slator letzte Woche bemerkte, hat GPT-3 „das Internet im Sturm erobert“. Zugang zu einer geschlossenen privaten Beta-Version von GPT-3 wurde einer kleinen Anzahl von Forschern gewährt, die dann begeistert über die erstaunlichen Fähigkeiten des Systems twitterten.