Estamos trayendo de vuelta la frontera del modelo abierto a EE. UU. para construir un ecosistema de IA próspero a nivel global.
Agradecidos por el apoyo de nuestros inversores, incluyendo NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV y otros.
Hoy compartimos la próxima fase de Reflection.
Estamos construyendo inteligencia abierta de frontera accesible para todos.
Hemos reunido un equipo extraordinario de IA, construido una pila de entrenamiento de LLM de frontera y recaudado 2 mil millones de dólares.
Por qué importa la inteligencia abierta
El progreso tecnológico y científico se impulsa por valores de apertura y colaboración.
Internet, Linux y los protocolos y estándares que sustentan la computación moderna son todos abiertos. Esto no es una coincidencia. El software abierto es lo que se bifurca, se personaliza y se integra en sistemas en todo el mundo. Es lo que las universidades enseñan, en lo que las startups se basan, lo que las empresas implementan.
La ciencia abierta permite que otros aprendan de los resultados, se inspiren en ellos, los interroguen y construyan sobre ellos para empujar la frontera del conocimiento humano y el avance científico. La IA llegó a donde está hoy a través de la escalabilidad de ideas (por ejemplo, autoatención, predicción del siguiente token, aprendizaje por refuerzo) que se compartieron y publicaron abiertamente.
Ahora la IA se está convirtiendo en la capa tecnológica sobre la que todo lo demás se ejecuta. Los sistemas que aceleran la investigación científica, mejoran la educación, optimizan el uso de energía, potencian diagnósticos médicos y gestionan cadenas de suministro se construirán sobre la infraestructura de IA.
Pero la frontera está actualmente concentrada en laboratorios cerrados. Si esto continúa, un puñado de entidades controlará el capital, la computación y el talento necesarios para construir IA, creando una dinámica descontrolada que excluye a todos los demás. Hay una ventana estrecha para cambiar esta trayectoria. Necesitamos construir modelos abiertos tan capaces que se conviertan en la opción obvia para usuarios y desarrolladores en todo el mundo, asegurando que la base de la inteligencia permanezca abierta y accesible en lugar de controlada por unos pocos.
Lo que hemos construido
Durante el último año, nos hemos estado preparando para esta misión.
Hemos reunido un equipo que ha sido pionero en avances como PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof, y ha contribuido a ChatGPT y Character AI, entre muchos otros.
Construimos algo que una vez se pensó posible solo dentro de los mejores laboratorios del mundo: una plataforma de LLM a gran escala y aprendizaje por refuerzo capaz de entrenar modelos de Mixture-of-Experts (MoEs) masivos a escala de frontera. Vimos la efectividad de nuestro enfoque de primera mano cuando lo aplicamos al dominio crítico de la codificación autónoma. Con este hito desbloqueado, ahora estamos llevando estos métodos al razonamiento agente general.
Hemos recaudado capital significativo e identificado un modelo comercial escalable que se alinea con nuestra estrategia de inteligencia abierta, asegurando que podamos continuar construyendo y lanzando modelos de frontera de manera sostenible. Ahora estamos escalando para construir modelos abiertos que integren preentrenamiento a gran escala y aprendizaje por refuerzo avanzado desde cero.
Seguridad y responsabilidad
La inteligencia abierta también cambia cómo pensamos sobre la seguridad. Permite que la comunidad más amplia participe en la investigación y el discurso sobre la seguridad, en lugar de dejar decisiones críticas a unos pocos laboratorios cerrados. La transparencia permite a los investigadores independientes identificar riesgos, desarrollar mitigaciones y responsabilizar a los sistemas de maneras que el desarrollo cerrado no puede.
Pero la apertura también requiere enfrentar los desafíos de que modelos capaces sean ampliamente accesibles. Estamos invirtiendo en evaluaciones para evaluar capacidades y riesgos antes del lanzamiento, investigación de seguridad para proteger contra el uso indebido y estándares de implementación responsable. Creemos que la respuesta a la seguridad de la IA no es "seguridad a través de la oscuridad" sino ciencia rigurosa realizada en abierto, donde la comunidad de investigación global puede contribuir a soluciones en lugar de que un puñado de empresas tome decisiones a puerta cerrada.
Únete a nosotros
Hay una ventana de oportunidad hoy para construir inteligencia abierta de frontera, pero se está cerrando y esta puede ser la última. Si esta misión resuena, únete a nosotros.
5,17 mil
66
El contenido de esta página lo proporcionan terceros. A menos que se indique lo contrario, OKX no es el autor de los artículos citados y no reclama ningún derecho de autor sobre los materiales. El contenido se proporciona únicamente con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo vinculado para obtener más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. El holding de activos digitales, incluyendo stablecoins y NFT, implican un alto grado de riesgo y pueden fluctuar en gran medida. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti a la luz de tu situación financiera.