Estamos trazendo a fronteira do modelo aberto de volta aos EUA para construir um ecossistema de IA próspero globalmente. Agradecemos o apoio dos nossos investidores, incluindo NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV e outros.
Hoje estamos a partilhar a próxima fase da Reflexão. Estamos a construir inteligência aberta de fronteira acessível a todos. Reunimos uma equipa extraordinária de IA, construímos uma pilha de treino de LLM de fronteira e angariámos 2 mil milhões de dólares. Por que a Inteligência Aberta é Importante O progresso tecnológico e científico é impulsionado por valores de abertura e colaboração. A internet, o Linux e os protocolos e padrões que sustentam a computação moderna são todos abertos. Isso não é uma coincidência. O software aberto é o que é bifurcado, personalizado e incorporado em sistemas em todo o mundo. É o que as universidades ensinam, no que as startups se baseiam, o que as empresas implementam. A ciência aberta permite que outros aprendam com os resultados, sejam inspirados por eles, os interroguem e construam sobre eles para avançar a fronteira do conhecimento humano e do avanço científico. A IA chegou onde está hoje através da escalabilidade de ideias (por exemplo, autoatenção, previsão do próximo token, aprendizagem por reforço) que foram partilhadas e publicadas abertamente. Agora a IA está a tornar-se a camada tecnológica sobre a qual tudo o resto opera. Os sistemas que aceleram a pesquisa científica, melhoram a educação, otimizam o uso de energia, supercarregam diagnósticos médicos e gerem cadeias de suprimentos serão todos construídos sobre a infraestrutura de IA. Mas a fronteira está atualmente concentrada em laboratórios fechados. Se isso continuar, um punhado de entidades controlará o capital, o computação e o talento necessários para construir IA, criando uma dinâmica descontrolada que exclui todos os outros. Há uma janela estreita para mudar esta trajetória. Precisamos construir modelos abertos tão capazes que se tornem a escolha óbvia para utilizadores e desenvolvedores em todo o mundo, garantindo que a fundação da inteligência permaneça aberta e acessível em vez de controlada por poucos. O que Construímos Ao longo do último ano, temos estado a preparar-nos para esta missão. Reunimos uma equipa que pioneira em avanços incluindo PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof, e contribuímos para o ChatGPT e Character AI, entre muitos outros. Construímos algo que antes se pensava ser possível apenas dentro dos melhores laboratórios do mundo: uma plataforma de LLM em larga escala e aprendizagem por reforço capaz de treinar modelos de Mixture-of-Experts (MoEs) massivos em escala de fronteira. Vimos a eficácia da nossa abordagem em primeira mão quando a aplicámos ao domínio crítico da codificação autónoma. Com este marco desbloqueado, estamos agora a trazer esses métodos para o raciocínio agente geral. Angariámos capital significativo e identificámos um modelo comercial escalável que se alinha com a nossa estratégia de inteligência aberta, garantindo que podemos continuar a construir e lançar modelos de fronteira de forma sustentável. Estamos agora a escalar para construir modelos abertos que reúnem pré-treinamento em larga escala e aprendizagem por reforço avançada desde o início. Segurança e Responsabilidade A inteligência aberta também muda a forma como pensamos sobre segurança. Permite que a comunidade mais ampla participe na pesquisa e no discurso sobre segurança, em vez de deixar decisões críticas para alguns laboratórios fechados. A transparência permite que investigadores independentes identifiquem riscos, desenvolvam mitigações e responsabilizem os sistemas de maneiras que o desenvolvimento fechado não pode. Mas a abertura também requer enfrentar os desafios de modelos capazes de serem amplamente acessíveis. Estamos a investir em avaliações para avaliar capacidades e riscos antes do lançamento, pesquisa de segurança para proteger contra abusos e padrões de implementação responsável. Acreditamos que a resposta para a segurança da IA não é "segurança através da obscuridade", mas sim ciência rigorosa realizada de forma aberta, onde a comunidade de pesquisa global pode contribuir para soluções em vez de um punhado de empresas a tomar decisões atrás de portas fechadas. Junte-se a Nós Há uma janela de oportunidade hoje para construir inteligência aberta de fronteira, mas está a fechar e esta pode ser a última. Se esta missão ressoar, junte-se a nós.
Mostrar original
5,18 mil
66
O conteúdo apresentado nesta página é fornecido por terceiros. Salvo indicação em contrário, a OKX não é o autor dos artigos citados e não reivindica quaisquer direitos de autor nos materiais. O conteúdo é fornecido apenas para fins informativos e não representa a opinião da OKX. Não se destina a ser um endosso de qualquer tipo e não deve ser considerado conselho de investimento ou uma solicitação para comprar ou vender ativos digitais. Na medida em que a IA generativa é utilizada para fornecer resumos ou outras informações, esse mesmo conteúdo gerado por IA pode ser impreciso ou inconsistente. Leia o artigo associado para obter mais detalhes e informações. A OKX não é responsável pelo conteúdo apresentado nos sites de terceiros. As detenções de ativos digitais, incluindo criptomoedas estáveis e NFTs, envolvem um nível de risco elevado e podem sofrer grandes flutuações. Deve considerar cuidadosamente se o trading ou a detenção de ativos digitais é adequado para si à luz da sua condição financeira.