Wir bringen die offene Modellgrenze zurück in die USA, um ein florierendes KI-Ökosystem weltweit aufzubauen.
Dankbar für die Unterstützung unserer Investoren, darunter NVIDIA, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV und andere.
Heute teilen wir die nächste Phase von Reflection.
Wir bauen eine offene Intelligenz an der Grenze, die für alle zugänglich ist.
Wir haben ein außergewöhnliches AI-Team zusammengestellt, einen LLM-Trainingsstapel an der Grenze entwickelt und 2 Milliarden Dollar gesammelt.
Warum offene Intelligenz wichtig ist
Technologischer und wissenschaftlicher Fortschritt wird von Werten der Offenheit und Zusammenarbeit vorangetrieben.
Das Internet, Linux und die Protokolle und Standards, die moderne Computertechnologie untermauern, sind alle offen. Das ist kein Zufall. Offene Software wird geforkt, angepasst und in Systeme weltweit eingebettet. Es ist das, was Universitäten lehren, worauf Startups aufbauen und was Unternehmen einsetzen.
Offene Wissenschaft ermöglicht es anderen, aus den Ergebnissen zu lernen, sich von ihnen inspirieren zu lassen, sie zu hinterfragen und darauf aufzubauen, um die Grenzen des menschlichen Wissens und des wissenschaftlichen Fortschritts voranzutreiben. AI hat es bis zu dem Punkt gebracht, an dem sie sich heute befindet, indem sie Ideen (z. B. Selbstaufmerksamkeit, Vorhersage des nächsten Tokens, verstärkendes Lernen) skaliert hat, die offen geteilt und veröffentlicht wurden.
Jetzt wird AI zur Technologieebene, auf der alles andere aufbaut. Die Systeme, die die wissenschaftliche Forschung beschleunigen, die Bildung verbessern, den Energieverbrauch optimieren, medizinische Diagnosen unterstützen und Lieferketten betreiben, werden alle auf AI-Infrastruktur aufgebaut.
Aber die Grenze konzentriert sich derzeit in geschlossenen Laboren. Wenn dies so bleibt, werden einige wenige Entitäten das Kapital, die Rechenleistung und das Talent kontrollieren, die erforderlich sind, um AI zu entwickeln, was eine dynamische Entwicklung schafft, die alle anderen ausschließt. Es gibt ein enges Zeitfenster, um diese Richtung zu ändern. Wir müssen offene Modelle entwickeln, die so leistungsfähig sind, dass sie die offensichtliche Wahl für Benutzer und Entwickler weltweit werden, um sicherzustellen, dass die Grundlage der Intelligenz offen und zugänglich bleibt, anstatt von wenigen kontrolliert zu werden.
Was wir gebaut haben
Im letzten Jahr haben wir uns auf diese Mission vorbereitet.
Wir haben ein Team zusammengestellt, das Durchbrüche wie PaLM, Gemini, AlphaGo, AlphaCode, AlphaProof und Beiträge zu ChatGPT und Character AI, unter vielen anderen, vorangetrieben hat.
Wir haben etwas gebaut, das einst nur in den besten Laboren der Welt für möglich gehalten wurde: eine groß angelegte LLM- und verstärkende Lernplattform, die in der Lage ist, massive Mixture-of-Experts (MoEs)-Modelle im Grenzbereich zu trainieren. Wir haben die Effektivität unseres Ansatzes aus erster Hand gesehen, als wir ihn auf den kritischen Bereich des autonomen Codierens angewendet haben. Mit diesem Meilenstein, der erreicht wurde, bringen wir jetzt diese Methoden in die allgemeine agentische Argumentation ein.
Wir haben erhebliches Kapital gesammelt und ein skalierbares Geschäftsmodell identifiziert, das mit unserer Strategie der offenen Intelligenz übereinstimmt, um sicherzustellen, dass wir weiterhin nachhaltig an der Entwicklung und Veröffentlichung von Modellen an der Grenze arbeiten können. Wir skalieren jetzt, um offene Modelle zu entwickeln, die groß angelegte Vortrainings und fortgeschrittenes verstärkendes Lernen von Grund auf zusammenbringen.
Sicherheit und Verantwortung
Offene Intelligenz verändert auch, wie wir über Sicherheit denken. Sie ermöglicht es der breiteren Gemeinschaft, an Sicherheitsforschung und -diskurs teilzunehmen, anstatt kritische Entscheidungen wenigen geschlossenen Laboren zu überlassen. Transparenz ermöglicht es unabhängigen Forschern, Risiken zu identifizieren, Minderung zu entwickeln und Systeme in einer Weise zur Verantwortung zu ziehen, die geschlossene Entwicklungen nicht können.
Aber Offenheit erfordert auch, sich den Herausforderungen zu stellen, dass leistungsfähige Modelle weit verbreitet zugänglich sind. Wir investieren in Bewertungen, um Fähigkeiten und Risiken vor der Veröffentlichung zu bewerten, in Sicherheitsforschung, um Missbrauch vorzubeugen, und in Standards für verantwortungsvolle Bereitstellung. Wir glauben, dass die Antwort auf die Sicherheit von AI nicht "Sicherheit durch Obskurität" ist, sondern rigoröse Wissenschaft, die offen durchgeführt wird, wo die globale Forschungsgemeinschaft zu Lösungen beitragen kann, anstatt dass einige wenige Unternehmen Entscheidungen hinter verschlossenen Türen treffen.
Schließen Sie sich uns an
Es gibt heute ein Zeitfenster, um offene Intelligenz an der Grenze aufzubauen, aber es schließt sich, und dies könnte das letzte sein. Wenn diese Mission mit Ihnen resoniert, schließen Sie sich uns an.
5.182
66
Der Inhalt dieser Seite wird von Drittparteien bereitgestellt. Sofern nicht anders angegeben, ist OKX nicht der Autor der zitierten Artikel und erhebt keinen Anspruch auf das Urheberrecht an den Materialien. Die Inhalte dienen ausschließlich zu Informationszwecken und spiegeln nicht die Ansichten von OKX wider. Sie stellen keine Form der Empfehlung dar und sind weder als Anlageberatung noch als Aufforderung zum Kauf oder Verkauf digitaler Assets zu verstehen. Soweit generative KI zur Bereitstellung von Zusammenfassungen oder anderen Informationen eingesetzt wird, kann der dadurch erzeugte Inhalt ungenau oder widersprüchlich sein. Mehr Infos findest du im verlinkten Artikel. OKX haftet nicht für Inhalte, die auf Drittpartei-Websites gehostet werden. Digitale Assets, einschließlich Stablecoins und NFT, bergen ein hohes Risiko und können stark schwanken. Du solltest sorgfältig überlegen, ob der Handel mit oder das Halten von digitalen Assets angesichts deiner finanziellen Situation für dich geeignet ist.