Nous ramenons le modèle ouvert aux États-Unis pour construire un écosystème d'IA florissant à l'échelle mondiale. Reconnaissants pour le soutien de nos investisseurs, y compris NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV, et d'autres.
Aujourd'hui, nous partageons la prochaine phase de la Réflexion. Nous construisons une intelligence ouverte de pointe accessible à tous. Nous avons rassemblé une équipe d'IA extraordinaire, construit une pile d'entraînement LLM de pointe et levé 2 milliards de dollars. Pourquoi l'intelligence ouverte est importante Le progrès technologique et scientifique est guidé par des valeurs d'ouverture et de collaboration. Internet, Linux et les protocoles et normes qui sous-tendent l'informatique moderne sont tous ouverts. Ce n'est pas une coïncidence. Les logiciels ouverts sont ceux qui sont forkés, personnalisés et intégrés dans des systèmes à travers le monde. C'est ce que les universités enseignent, sur quoi les startups s'appuient, ce que les entreprises déploient. La science ouverte permet aux autres d'apprendre des résultats, d'en être inspirés, de les interroger et de s'appuyer dessus pour faire avancer la frontière de la connaissance humaine et du progrès scientifique. L'IA est arrivée là où elle en est aujourd'hui grâce à l'échelle d'idées (par exemple, l'auto-attention, la prédiction du prochain token, l'apprentissage par renforcement) qui ont été partagées et publiées ouvertement. Maintenant, l'IA devient la couche technologique sur laquelle tout le reste fonctionne. Les systèmes qui accélèrent la recherche scientifique, améliorent l'éducation, optimisent l'utilisation de l'énergie, dynamisent les diagnostics médicaux et gèrent les chaînes d'approvisionnement seront tous construits sur une infrastructure d'IA. Mais la frontière est actuellement concentrée dans des laboratoires fermés. Si cela continue, une poignée d'entités contrôlera le capital, le calcul et le talent nécessaires pour construire l'IA, créant une dynamique incontrôlable qui exclut tout le monde. Il y a une fenêtre étroite pour changer cette trajectoire. Nous devons construire des modèles ouverts si capables qu'ils deviennent le choix évident pour les utilisateurs et les développeurs du monde entier, garantissant que la fondation de l'intelligence reste ouverte et accessible plutôt que contrôlée par quelques-uns. Ce que nous avons construit Au cours de l'année dernière, nous nous sommes préparés pour cette mission. Nous avons rassemblé une équipe qui a été à l'origine de percées, y compris PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof, et a contribué à ChatGPT et Character AI, parmi tant d'autres. Nous avons construit quelque chose que l'on pensait possible uniquement à l'intérieur des meilleurs laboratoires du monde : une plateforme LLM à grande échelle et d'apprentissage par renforcement capable d'entraîner des modèles Mixture-of-Experts (MoEs) massifs à l'échelle de pointe. Nous avons vu l'efficacité de notre approche de première main lorsque nous l'avons appliquée au domaine critique du codage autonome. Avec cette étape franchie, nous apportons maintenant ces méthodes au raisonnement agentique général. Nous avons levé des capitaux significatifs et identifié un modèle commercial évolutif qui s'aligne avec notre stratégie d'intelligence ouverte, garantissant que nous pouvons continuer à construire et à publier des modèles de pointe de manière durable. Nous sommes maintenant en train de nous développer pour construire des modèles ouverts qui rassemblent un pré-entraînement à grande échelle et un apprentissage par renforcement avancé dès le départ. Sécurité et responsabilité L'intelligence ouverte change également notre façon de penser à la sécurité. Elle permet à la communauté plus large de participer à la recherche et au discours sur la sécurité, plutôt que de laisser des décisions critiques à quelques laboratoires fermés. La transparence permet aux chercheurs indépendants d'identifier les risques, de développer des atténuations et de tenir les systèmes responsables de manière que le développement fermé ne peut pas. Mais l'ouverture nécessite également de faire face aux défis des modèles capables d'être largement accessibles. Nous investissons dans des évaluations pour évaluer les capacités et les risques avant la publication, la recherche en sécurité pour protéger contre les abus, et des normes de déploiement responsables. Nous croyons que la réponse à la sécurité de l'IA n'est pas "la sécurité par l'obscurité" mais une science rigoureuse menée de manière ouverte, où la communauté de recherche mondiale peut contribuer à des solutions plutôt qu'une poignée d'entreprises prenant des décisions derrière des portes closes. Rejoignez-nous Il y a aujourd'hui une fenêtre d'opportunité pour construire une intelligence ouverte de pointe, mais elle se ferme et cela pourrait être la dernière. Si cette mission résonne en vous, rejoignez-nous.
Afficher l’original
5,18 k
66
Le contenu de cette page est fourni par des tiers. Sauf indication contraire, OKX n’est pas l’auteur du ou des articles cités et ne revendique aucun droit d’auteur sur le contenu. Le contenu est fourni à titre d’information uniquement et ne représente pas les opinions d’OKX. Il ne s’agit pas d’une approbation de quelque nature que ce soit et ne doit pas être considéré comme un conseil en investissement ou une sollicitation d’achat ou de vente d’actifs numériques. Dans la mesure où l’IA générative est utilisée pour fournir des résumés ou d’autres informations, ce contenu généré par IA peut être inexact ou incohérent. Veuillez lire l’article associé pour obtenir davantage de détails et d’informations. OKX n’est pas responsable du contenu hébergé sur des sites tiers. La détention d’actifs numériques, y compris les stablecoins et les NFT, implique un niveau de risque élevé et leur valeur peut considérablement fluctuer. Examinez soigneusement votre situation financière pour déterminer si le trading ou la détention d’actifs numériques vous convient.