We brengen de open modelgrens terug naar de VS om wereldwijd een bloeiend AI-ecosysteem op te bouwen.
Dankbaar voor de steun van onze investeerders, waaronder NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV en anderen.
Vandaag delen we de volgende fase van Reflectie.
We bouwen aan grensverleggende open intelligentie die voor iedereen toegankelijk is.
We hebben een buitengewoon AI-team samengesteld, een grensverleggende LLM-trainingsstack gebouwd en $2 miljard opgehaald.
Waarom Open Intelligentie Belangrijk Is
Technologische en wetenschappelijke vooruitgang wordt gedreven door waarden van openheid en samenwerking.
Het internet, Linux en de protocollen en standaarden die moderne computing ondersteunen zijn allemaal open. Dit is geen toeval. Open software is wat wordt geforkt, aangepast en in systemen wereldwijd wordt ingebed. Het is wat universiteiten onderwijzen, waar startups op bouwen, wat ondernemingen implementeren.
Open wetenschap stelt anderen in staat om te leren van de resultaten, geïnspireerd te worden door hen, hen te onderzoeken en er op voort te bouwen om de grens van menselijke kennis en wetenschappelijke vooruitgang te verleggen. AI is gekomen waar het nu is door ideeën (bijv. zelf-aandacht, voorspelling van de volgende token, versterkend leren) te schalen die openlijk werden gedeeld en gepubliceerd.
Nu wordt AI de technologie-laag waar alles bovenop draait. De systemen die wetenschappelijk onderzoek versnellen, onderwijs verbeteren, energieverbruik optimaliseren, medische diagnoses versterken en toeleveringsketens beheren, zullen allemaal worden gebouwd op AI-infrastructuur.
Maar de grens is momenteel geconcentreerd in gesloten laboratoria. Als dit zo doorgaat, zullen een handvol entiteiten het kapitaal, de rekenkracht en het talent beheersen die nodig zijn om AI te bouwen, wat een dynamiek creëert die iedereen buiten sluit. Er is een smalle kans om deze koers te veranderen. We moeten open modellen bouwen die zo capabel zijn dat ze de voor de hand liggende keuze worden voor gebruikers en ontwikkelaars wereldwijd, zodat de basis van intelligentie open en toegankelijk blijft in plaats van gecontroleerd door enkelen.
Wat We Hebben Gebouwd
In het afgelopen jaar hebben we ons voorbereid op deze missie.
We hebben een team samengesteld dat doorbraken heeft gepionierd, waaronder PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof, en heeft bijgedragen aan ChatGPT en Character AI, onder vele anderen.
We hebben iets gebouwd dat ooit alleen mogelijk werd geacht binnen de top laboratoria van de wereld: een grootschalig LLM- en versterkend leerplatform dat in staat is om enorme Mixture-of-Experts (MoEs) modellen op grensverleggende schaal te trainen. We zagen de effectiviteit van onze aanpak van dichtbij toen we deze toepasten op het kritieke domein van autonoom coderen. Met deze mijlpaal ontgrendeld, brengen we nu deze methoden naar algemene agentische redenering.
We hebben aanzienlijke kapitaal opgehaald en een schaalbaar commercieel model geïdentificeerd dat aansluit bij onze open intelligentiestrategie, zodat we kunnen blijven bouwen en grensverleggende modellen duurzaam kunnen vrijgeven. We zijn nu aan het opschalen om open modellen te bouwen die grootschalige pretraining en geavanceerd versterkend leren vanaf de grond op samenbrengen.
Veiligheid en Verantwoordelijkheid
Open intelligentie verandert ook hoe we over veiligheid denken. Het stelt de bredere gemeenschap in staat om deel te nemen aan veiligheidsonderzoek en -discussie, in plaats van kritische beslissingen aan een paar gesloten laboratoria over te laten. Transparantie stelt onafhankelijke onderzoekers in staat om risico's te identificeren, mitigaties te ontwikkelen en systemen verantwoordelijk te houden op manieren die gesloten ontwikkeling niet kan.
Maar openheid vereist ook dat we de uitdagingen aangaan van capabele modellen die breed toegankelijk zijn. We investeren in evaluaties om capaciteiten en risico's vóór de release te beoordelen, beveiligingsonderzoek om misbruik te beschermen, en verantwoordelijkheidsnormen voor implementatie. We geloven dat het antwoord op AI-veiligheid niet "beveiliging door obscuriteit" is, maar rigoureuze wetenschap die openlijk wordt uitgevoerd, waar de wereldwijde onderzoeksgemeenschap kan bijdragen aan oplossingen in plaats van een handvol bedrijven die beslissingen achter gesloten deuren nemen.
Doe Met Ons Mee
Er is vandaag een kans om grensverleggende open intelligentie te bouwen, maar deze sluit en dit kan de laatste zijn. Als deze missie je aanspreekt, sluit je dan bij ons aan.
5,17K
66
De inhoud op deze pagina wordt geleverd door derden. Tenzij anders vermeld, is OKX niet de auteur van het (de) geciteerde artikel(en) en claimt geen auteursrecht op de materialen. De inhoud is alleen bedoeld voor informatieve doeleinden en vertegenwoordigt niet de standpunten van OKX. Het is niet bedoeld als een goedkeuring van welke aard dan ook en mag niet worden beschouwd als beleggingsadvies of een uitnodiging tot het kopen of verkopen van digitale bezittingen. Voor zover generatieve AI wordt gebruikt om samenvattingen of andere informatie te verstrekken, kan deze door AI gegenereerde inhoud onnauwkeurig of inconsistent zijn. Lees het gelinkte artikel voor meer details en informatie. OKX is niet verantwoordelijk voor inhoud gehost op sites van een derde partij. Het bezitten van digitale activa, waaronder stablecoins en NFT's, brengt een hoge mate van risico met zich mee en de waarde van deze activa kan sterk fluctueren. Overweeg zorgvuldig of de handel in of het bezit van digitale activa geschikt voor je is in het licht van je financiële situatie.