Estamos trayendo la frontera del modelo abierto de regreso a los EE. UU. para construir un ecosistema de IA próspero a nivel mundial. Agradecido por el apoyo de nuestros inversores, incluidos NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV y otros.
Hoy compartimos la siguiente fase de Reflexión. Estamos construyendo inteligencia abierta de frontera accesible para todos. Hemos reunido un extraordinario equipo de IA, hemos construido una pila de entrenamiento de LLM de frontera y hemos recaudado $ 2 mil millones. Por qué es importante la inteligencia abierta El progreso tecnológico y científico está impulsado por valores de apertura y colaboración. Internet, Linux y los protocolos y estándares que sustentan la informática moderna están abiertos. Esto no es una coincidencia. El software abierto es lo que se bifurca, personaliza e integra en los sistemas de todo el mundo. Es lo que enseñan las universidades, lo que construyen las startups, lo que implementan las empresas. La ciencia abierta permite a otros aprender de los resultados, inspirarse en ellos, interrogarlos y construir sobre ellos para ampliar la frontera del conocimiento humano y el avance científico. La IA llegó a donde está hoy a través de ideas de escala (por ejemplo, autoatención, predicción de próximos tokens, aprendizaje por refuerzo) que se compartieron y publicaron abiertamente. Ahora la IA se está convirtiendo en la capa tecnológica sobre la que se ejecuta todo lo demás. Los sistemas que aceleran la investigación científica, mejoran la educación, optimizan el uso de energía, potencian los diagnósticos médicos y ejecutan cadenas de suministro se basarán en la infraestructura de IA. Pero la frontera se concentra actualmente en laboratorios cerrados. Si esto continúa, un puñado de entidades controlará el capital, la computación y el talento necesarios para construir IA, creando una dinámica desbocada que bloquea a todos los demás. Hay una ventana estrecha para cambiar esta trayectoria. Necesitamos construir modelos abiertos tan capaces que se conviertan en la opción obvia para los usuarios y desarrolladores de todo el mundo, asegurando que la base de la inteligencia permanezca abierta y accesible en lugar de controlada por unos pocos. Lo que hemos construido Durante el último año, nos hemos estado preparando para esta misión. Hemos reunido un equipo que ha sido pionero en avances como PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof y ha contribuido a ChatGPT y Character AI, entre muchos otros. Construimos algo que alguna vez se pensó posible solo dentro de los mejores laboratorios del mundo: una plataforma de aprendizaje por refuerzo y LLM a gran escala capaz de entrenar modelos masivos de mezcla de expertos (MoE) a escala de frontera. Vimos la efectividad de nuestro enfoque de primera mano cuando lo aplicamos al dominio crítico de la codificación autónoma. Con este hito desbloqueado, ahora estamos llevando estos métodos al razonamiento agencial general. Hemos recaudado un capital significativo e identificado un modelo comercial escalable que se alinea con nuestra estrategia de inteligencia abierta, lo que garantiza que podamos continuar construyendo y lanzando modelos de frontera de manera sostenible. Ahora estamos ampliando para crear modelos abiertos que reúnan el preentrenamiento a gran escala y el aprendizaje por refuerzo avanzado desde cero. Seguridad y responsabilidad La inteligencia abierta también cambia la forma en que pensamos sobre la seguridad. Permite a la comunidad en general participar en la investigación y el discurso de seguridad, en lugar de dejar las decisiones críticas a unos pocos laboratorios cerrados. La transparencia permite a los investigadores independientes identificar riesgos, desarrollar mitigaciones y responsabilizar a los sistemas de una manera que el desarrollo cerrado no puede. Pero la apertura también requiere enfrentar los desafíos de que los modelos capaces sean ampliamente accesibles. Estamos invirtiendo en evaluaciones para evaluar las capacidades y los riesgos antes del lanzamiento, investigación de seguridad para proteger contra el uso indebido y estándares de implementación responsables. Creemos que la respuesta a la seguridad de la IA no es la "seguridad a través de la oscuridad", sino la ciencia rigurosa realizada al aire libre, donde la comunidad de investigación global puede contribuir a las soluciones en lugar de un puñado de empresas que toman decisiones a puerta cerrada. Únete a nosotros Hoy hay una ventana de oportunidad para construir inteligencia abierta de frontera, pero se está cerrando y esta puede ser la última. Si esta misión resuena, únase a nosotros.
Mostrar original
5.18 K
66
El contenido al que estás accediendo se ofrece por terceros. A menos que se indique lo contrario, OKX no es autor de la información y no reclama ningún derecho de autor sobre los materiales. El contenido solo se proporciona con fines informativos y no representa las opiniones de OKX. No pretende ser un respaldo de ningún tipo y no debe ser considerado como un consejo de inversión o una solicitud para comprar o vender activos digitales. En la medida en que la IA generativa se utiliza para proporcionar resúmenes u otra información, dicho contenido generado por IA puede ser inexacto o incoherente. Lee el artículo enlazado para más detalles e información. OKX no es responsable del contenido alojado en sitios de terceros. Los holdings de activos digitales, incluidos stablecoins y NFT, suponen un alto nivel de riesgo y pueden fluctuar mucho. Debes considerar cuidadosamente si el trading o holding de activos digitales es adecuado para ti según tu situación financiera.