論文の概要: Nex-N1: Agentic Models Trained via a Unified Ecosystem for Large-Scale Environment Construction
- arxiv url: http://arxiv.org/abs/2512.04987v1
- Date: Thu, 04 Dec 2025 16:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.282746
- Title: Nex-N1: Agentic Models Trained via a Unified Ecosystem for Large-Scale Environment Construction
- Title(参考訳): Nex-N1:大規模環境構築のための統一生態系を用いたエージェントモデル
- Authors: Nex-AGI Team, :, Yuxuan Cai, Lu Chen, Qiaoling Chen, Yuyang Ding, Liwen Fan, Wenjie Fu, Yufei Gao, Honglin Guo, Pinxue Guo, Zhenhua Han, Zhengfu He, Hanglei Hu, Kai Hu, Shengjia Hua, Tianyu Huai, Baodai Huang, Li Ji, Zhen Jiang, Zhikai Lei, Bufan Li, Jiahang Lin, Lizhi Lin, Jinxiu Liu, Shichun Liu, Ziming Liu, Yuchen Ni, Pengfang Qian, Yujiong Shen, Qingyun Shi, Wentao Shu, Peng Sun, Yiran Suo, Tian Tang, Boyu Tian, Guoteng Wang, Junzhe Wang, Peixin Wang, Zhiheng Xi, Hang Yan, Jie Yang, Zhixiong Yang, Tianchu Yao, Guangze Ye, Qianxi Yu, Shuo Zhang, Xinyue Zhang, Yiqi Zhang, Jiarong Zhao, Miao Zheng, Rui Zheng, Enyu Zhou, Jiazheng Zhou, Maosen Zhou, Yuhao Zhou, Tao Gui, Yining Zheng, Xinchi Chen, Jie Zhou, Siyuan Feng, Qin Chen, Liang He, Qi Zhang, Xuanjing Huang, Xipeng Qiu,
- Abstract要約: 本稿では,対話型環境の多様性と複雑さを体系的にスケールする手法を提案する。
本手法は,3次元に対処することで,このスケーリングを実現する。
Nex-N1は、インフラストラクチャによって確立された多様な複雑なインタラクティブ環境に基づいてトレーニングします。
- 参考スコア(独自算出の注目度): 117.6380005194061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution of Large Language Models (LLMs) from passive responders to autonomous agents necessitates a fundamental shift in learning paradigms -- from static imitation to incentive-driven decision making. However, this transition is significantly impeded by the lack of scalable infrastructure capable of constructing high-quality interaction signals for effective policy learning. To address this, we introduce a comprehensive method designed to systematically scale the diversity and complexity of interactive environments. Our method realizes this scaling by addressing three orthogonal dimensions: (1) Complexity: NexAU, a flexible agent framework that supports building complex agent hierarchies via simple configurations; (2) Diversity: NexA4A automatically generates diverse agent hierarchies from natural language to cover infinite domains; and (3) Fidelity: NexGAP bridges the simulation-reality gap by integrating dynamic real-world environment for grounded trajectories synthesis. We train Nex-N1 upon the diverse and complex interactive environments established by our infrastructure. Empirical results on benchmarks such as SWE-bench and tau2 demonstrate that Nex-N1 consistently outperforms SOTA open-source models and achieves competitive performance against frontier proprietary models on complex agentic tasks. We open-source the Nex ecosystem and model weights to facilitate further research.
- Abstract(参考訳): 受動的応答者から自律的エージェントへの大規模言語モデル(LLM)の進化は、静的模倣からインセンティブ駆動による意思決定に至るまで、学習パラダイムの根本的なシフトを必要とする。
しかし、この移行は、効果的な政策学習のための高品質な相互作用信号を構築することのできるスケーラブルなインフラの欠如によって著しく妨げられている。
そこで本研究では,対話型環境の多様性と複雑さを体系的にスケールする包括的手法を提案する。
複雑性: NexAU, 単純構成による複雑なエージェント階層構築を支援する柔軟なエージェントフレームワーク, (2) 多様性: NexA4A は、自然言語から無限領域をカバーする多様なエージェント階層を自動的に生成し、(3) 忠実性: NexGAP は、基底軌道合成のための動的現実環境を統合することで、シミュレーションと現実のギャップを埋める。
Nex-N1は、インフラストラクチャによって確立された多様な複雑なインタラクティブ環境に基づいてトレーニングします。
SWE-bench や tau2 のようなベンチマークの実証的な結果は、NEX-N1 がSOTA のオープンソースモデルより一貫して優れており、複雑なエージェントタスク上のフロンティアプロプライエタリモデルと競合する性能を実現していることを示している。
Nexのエコシステムとモデルウェイトをオープンソースにして、さらなる研究を支援しています。
関連論文リスト
- NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - Flexible Swarm Learning May Outpace Foundation Models in Essential Tasks [0.0]
ファウンデーションモデルはAIを急速に進歩させ、彼らの決定が現実世界のドメインにおける人間の戦略を上回るかどうかという疑問を提起している。
一般的な課題は、複雑なシステムを動的環境に適応させることである。
モノリシックな基盤モデルは、それを克服する上で概念的な限界に直面している、と私たちは主張する。
対話型小型エージェントネットワーク(SAN)の分散アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-10-07T18:10:31Z) - Generative World Models of Tasks: LLM-Driven Hierarchical Scaffolding for Embodied Agents [0.0]
本稿では,世界物理学とそのタスク意味論をモデル化した意思決定のための効果的な世界モデルを提案する。
低リソースマルチエージェントサッカーにおける2024年の研究の体系的レビューは、象徴的手法と階層的手法を統合するための明確な傾向を明らかにしている。
私たちはこの傾向を階層的タスク環境(HTE)のフレームワークとして形式化し、シンプルでリアクティブな振る舞いと洗練された戦略的チームのプレーのギャップを埋めるのに不可欠です。
論文 参考訳(メタデータ) (2025-09-05T01:03:51Z) - Growing Transformers: Modular Composition and Layer-wise Expansion on a Frozen Substrate [1.0152838128195467]
大規模言語モデル(LLM)をスケールするための一般的なパラダイムは、モノリシックなエンドツーエンドのトレーニングである。
本稿では,トランスフォーマーにおける創発的意味論の原理によって実現された,代替的,建設的なスケーリングパラダイムについて考察する。
私たちはこれを、初期段階の厳密な層凍結とモデルスタック全体の効率的で総合的な微調整を組み合わせた、階層的に構築的な手法で運用します。
論文 参考訳(メタデータ) (2025-07-08T20:01:15Z) - Topological Structure Learning Should Be A Research Priority for LLM-Based Multi-Agent Systems [69.95482609893236]
大規模言語モデルに基づくマルチエージェントシステム(MAS)は、協調的な知性によって複雑なタスクに取り組むための強力なパラダイムとして登場した。
我々は,エージェント間相互作用の構造を明示的にモデル化し,動的に最適化する,エフェトロジーを意識したMASへのパラダイムシフトを求める。
論文 参考訳(メタデータ) (2025-05-28T15:20:09Z) - Decentralized Transformers with Centralized Aggregation are Sample-Efficient Multi-Agent World Models [106.35361897941898]
本稿では,分散化された局所力学を拡張性のために学習するマルチエージェントRL(MARL)の新たな世界モデルを提案する。
また、集中表現アグリゲーションを可能にする効果的なソリューションとしてPerceiver Transformerを導入する。
Starcraft Multi-Agent Challenge (SMAC) の結果は、サンプル効率と全体的な性能の両方において、強力なモデルフリーアプローチと既存のモデルベース手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-22T12:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。