Stiamo riportando il modello aperto negli Stati Uniti per costruire un ecosistema AI fiorente a livello globale. Grati per il supporto dei nostri investitori tra cui NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV e altri.
Oggi condividiamo la prossima fase di Reflection. Stiamo costruendo un'intelligenza aperta di frontiera accessibile a tutti. Abbiamo assemblato un team straordinario di AI, costruito un'infrastruttura di addestramento LLM di frontiera e raccolto 2 miliardi di dollari. Perché l'Intelligenza Aperta è Importante Il progresso tecnologico e scientifico è guidato dai valori di apertura e collaborazione. Internet, Linux e i protocolli e standard che sottendono il calcolo moderno sono tutti aperti. Non è una coincidenza. Il software aperto è ciò che viene forkato, personalizzato e integrato nei sistemi di tutto il mondo. È ciò che le università insegnano, su cui le startup costruiscono, ciò che le imprese implementano. La scienza aperta consente ad altri di apprendere dai risultati, di trarne ispirazione, di interrogarli e di costruire su di essi per spingere in avanti la frontiera della conoscenza umana e del progresso scientifico. L'AI è arrivata dove si trova oggi grazie alla scalabilità di idee (ad es. autoattenzione, previsione del token successivo, apprendimento per rinforzo) che sono state condivise e pubblicate apertamente. Ora l'AI sta diventando il livello tecnologico su cui tutto il resto si basa. I sistemi che accelerano la ricerca scientifica, migliorano l'istruzione, ottimizzano l'uso dell'energia, potenziano le diagnosi mediche e gestiscono le catene di approvvigionamento saranno tutti costruiti su un'infrastruttura AI. Ma la frontiera è attualmente concentrata in laboratori chiusi. Se questo continua, un numero ristretto di entità controllerà il capitale, il calcolo e il talento necessari per costruire l'AI, creando una dinamica incontrollata che esclude tutti gli altri. C'è una finestra ristretta per cambiare questa traiettoria. Dobbiamo costruire modelli aperti così capaci che diventino la scelta ovvia per utenti e sviluppatori in tutto il mondo, garantendo che le fondamenta dell'intelligenza rimangano aperte e accessibili piuttosto che controllate da pochi. Cosa Abbiamo Costruito Negli ultimi anni, ci siamo preparati per questa missione. Abbiamo assemblato un team che ha pionierato scoperte tra cui PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof e ha contribuito a ChatGPT e Character AI, tra molti altri. Abbiamo costruito qualcosa che si pensava possibile solo all'interno dei migliori laboratori del mondo: una piattaforma LLM su larga scala e di apprendimento per rinforzo capace di addestrare modelli Mixture-of-Experts (MoEs) massivi su scala di frontiera. Abbiamo visto l'efficacia del nostro approccio in prima persona quando lo abbiamo applicato al dominio critico della codifica autonoma. Con questo traguardo sbloccato, ora stiamo portando questi metodi al ragionamento agentico generale. Abbiamo raccolto capitali significativi e identificato un modello commerciale scalabile che si allinea con la nostra strategia di intelligenza aperta, garantendo che possiamo continuare a costruire e rilasciare modelli di frontiera in modo sostenibile. Ora ci stiamo espandendo per costruire modelli aperti che uniscano pre-addestramento su larga scala e apprendimento per rinforzo avanzato fin dall'inizio. Sicurezza e Responsabilità L'intelligenza aperta cambia anche il nostro modo di pensare alla sicurezza. Consente alla comunità più ampia di partecipare alla ricerca e al dibattito sulla sicurezza, piuttosto che lasciare decisioni critiche a pochi laboratori chiusi. La trasparenza consente ai ricercatori indipendenti di identificare rischi, sviluppare mitigazioni e tenere i sistemi responsabili in modi che lo sviluppo chiuso non può. Ma l'apertura richiede anche di affrontare le sfide dei modelli capaci di essere ampiamente accessibili. Stiamo investendo in valutazioni per valutare capacità e rischi prima del rilascio, ricerca sulla sicurezza per proteggere contro l'abuso e standard di distribuzione responsabile. Crediamo che la risposta alla sicurezza dell'AI non sia "sicurezza attraverso l'oscurità" ma scienza rigorosa condotta in modo aperto, dove la comunità di ricerca globale può contribuire a soluzioni piuttosto che un numero ristretto di aziende prendere decisioni dietro porte chiuse. Unisciti a Noi C'è una finestra di opportunità oggi per costruire un'intelligenza aperta di frontiera, ma si sta chiudendo e questa potrebbe essere l'ultima. Se questa missione risuona, unisciti a noi.
Mostra originale
48.209
264
Il contenuto di questa pagina è fornito da terze parti. Salvo diversa indicazione, OKX non è l'autore degli articoli citati e non rivendica alcun copyright sui materiali. Il contenuto è fornito solo a scopo informativo e non rappresenta le opinioni di OKX. Non intende essere un'approvazione di alcun tipo e non deve essere considerato un consiglio di investimento o una sollecitazione all'acquisto o alla vendita di asset digitali. Nella misura in cui l'IA generativa viene utilizzata per fornire riepiloghi o altre informazioni, tale contenuto generato dall'IA potrebbe essere impreciso o incoerente. Leggi l'articolo collegato per ulteriori dettagli e informazioni. OKX non è responsabile per i contenuti ospitati su siti di terze parti. Gli holding di asset digitali, tra cui stablecoin e NFT, comportano un elevato grado di rischio e possono fluttuare notevolmente. Dovresti valutare attentamente se effettuare il trading o detenere asset digitali è adatto a te alla luce della tua situazione finanziaria.