論文の概要: LIMI: Less is More for Agency
- arxiv url: http://arxiv.org/abs/2509.17567v2
- Date: Thu, 25 Sep 2025 11:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 14:16:56.095088
- Title: LIMI: Less is More for Agency
- Title(参考訳): LIMI: エージェンシーにとってより少ない
- Authors: Yang Xiao, Mohan Jiang, Jie Sun, Keyu Li, Jifan Lin, Yumin Zhuang, Ji Zeng, Shijie Xia, Qishuo Hua, Xuefeng Li, Xiaojie Cai, Tongyu Wang, Yue Zhang, Liming Liu, Xia Wu, Jinlong Hou, Yuan Cheng, Wenjie Li, Xiang Wang, Dequan Wang, Pengfei Liu,
- Abstract要約: LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
高度なエージェント・インテリジェンスは、最小でも戦略的にキュレートされた自律行動のデモンストレーションから生まれる可能性がある。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
- 参考スコア(独自算出の注目度): 49.63355240818081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We define Agency as the emergent capacity of AI systems to function as autonomous agents actively discovering problems, formulating hypotheses, and executing solutions through self-directed engagement with environments and tools. This fundamental capability marks the dawn of the Age of AI Agency, driven by a critical industry shift: the urgent need for AI systems that don't just think, but work. While current AI excels at reasoning and generating responses, industries demand autonomous agents that can execute tasks, operate tools, and drive real-world outcomes. As agentic intelligence becomes the defining characteristic separating cognitive systems from productive workers, efficiently cultivating machine autonomy becomes paramount. Current approaches assume that more data yields better agency, following traditional scaling laws from language modeling. We fundamentally challenge this paradigm. LIMI (Less Is More for Intelligent Agency) demonstrates that agency follows radically different development principles. Through strategic focus on collaborative software development and scientific research workflows, we show that sophisticated agentic intelligence can emerge from minimal but strategically curated demonstrations of autonomous behavior. Using only 78 carefully designed training samples, LIMI achieves 73.5% on comprehensive agency benchmarks, dramatically outperforming state-of-the-art models: Kimi-K2-Instruct (24.1%), DeepSeek-V3.1 (11.9%), Qwen3-235B-A22B-Instruct (27.5%), and GLM-4.5 (45.1%). Most strikingly, LIMI demonstrates 53.7% improvement over models trained on 10,000 samples-achieving superior agentic intelligence with 128 times fewer samples. Our findings establish the Agency Efficiency Principle: machine autonomy emerges not from data abundance but from strategic curation of high-quality agentic demonstrations.
- Abstract(参考訳): 私たちは、AIシステムの創発的な能力として、自律的なエージェントとして機能し、問題を発見し、仮説を定式化し、環境やツールとのセルフエンゲージメントを通じてソリューションを実行します。
この基本的な能力は、AIエージェンシー時代の幕開けを告げるものであり、重要な業界シフトによって引き起こされた。
現在のAIは推論と応答の生成に優れていますが、業界はタスクを実行し、ツールを操作し、現実の成果を推進できる自律的なエージェントを必要としています。
エージェント・インテリジェンス(エージェント・インテリジェンス)が、生産的労働者から認知システムを分離する特徴的な特徴となると、機械の自律性を効果的に育成することが最重要となる。
現在のアプローチでは、言語モデリングの伝統的なスケーリング法に従って、より多くのデータがより良いエージェンシーをもたらすと仮定している。
私たちはこのパラダイムに根本的に挑戦します。
LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
協調ソフトウェア開発と科学研究のワークフローに戦略的な焦点をあてることで、高度なエージェントインテリジェンスが、最小でも戦略的にキュレートされた自律行動のデモから生まれることを示す。
慎重に設計されたトレーニングサンプルは78点のみであり、総合的な機関のベンチマークでは73.5%を達成し、Kim-K2-Instruct (24.1%)、DeepSeek-V3.1 (11.9%)、Qwen3-235B-A22B-Instruct (27.5%)、GLM-4.5 (45.1%) といった最先端のモデルに劇的に勝っている。
最も驚くべきことに、LIMIは1万のサンプルで訓練されたモデルよりも53.7%改善しており、128倍のサンプルで優れたエージェントインテリジェンスを実現している。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
関連論文リスト
- Conformity and Social Impact on AI Agents [42.04722694386303]
本研究では,AIエージェントとして機能する大規模マルチモーダル言語モデルにおいて,社会圧力下での集団意見の一致傾向について検討した。
実験の結果,AIエージェントは社会影響理論と整合性バイアスを示し,グループサイズ,一様性,タスクの難易度,ソース特性に敏感であることがわかった。
これらの発見は、悪意のある操作、誤報キャンペーン、マルチエージェントシステムにおけるバイアス伝搬を可能にするAIエージェント決定における基本的なセキュリティ脆弱性を明らかにしている。
論文 参考訳(メタデータ) (2026-01-08T21:16:28Z) - Agent0: Unleashing Self-Evolving Agents from Zero Data via Tool-Integrated Reasoning [84.70211451226835]
大規模言語モデル(LLM)エージェントは、人間の計算データへの依存によって制約される。
我々は,外部データを持たない高性能エージェントを進化させる完全自律型フレームワークであるAgent0を紹介する。
Agent0は推論能力を大幅に向上させ、Qwen3-8B-Baseモデルを数学的推論で18%改善し、一般的な推論ベンチマークで24%改善した。
論文 参考訳(メタデータ) (2025-11-20T05:01:57Z) - AgentEvolver: Towards Efficient Self-Evolving Agent System [51.54882384204726]
本稿では,自律型エージェント学習を駆動する自己進化型エージェントシステムであるAgentEvolverを紹介する。
AgentEvolverは、セルフクエスト、セルフナビゲート、セルフコントリビューションという3つのシナジスティックメカニズムを導入している。
予備実験により、AgentEvolverは従来のRLベースのベースラインと比較して、より効率的な探索、より優れたサンプル利用、より高速な適応を実現していることが示された。
論文 参考訳(メタデータ) (2025-11-13T15:14:47Z) - Scaling Agents via Continual Pre-training [80.97989245493326]
我々は,エージェント連続事前学習(Agentic CPT)を深層研究エージェント訓練パイプラインに組み込んで,強力なエージェント基礎モデルを構築することを提案する。
我々は,AgentFounder-30Bを10のベンチマークで評価し,強力なツール使用能力を保ちながら最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2025-09-16T17:57:19Z) - ConfAgents: A Conformal-Guided Multi-Agent Framework for Cost-Efficient Medical Diagnosis [11.18347744454527]
私たちは、新しいメタレベルの進化メカニズムを通じて制限を克服する、自己進化型AIエージェントであるHealthFlowを紹介します。
HealthFlowは、手続き的な成功と失敗を永続的で戦略的知識基盤に蒸留することで、独自のハイレベルな問題解決ポリシーを自律的に洗練する。
私たちの実験では、HealthFlowの自己進化アプローチが最先端のエージェントフレームワークを大幅に上回っていることを実証しています。
論文 参考訳(メタデータ) (2025-08-06T22:39:38Z) - SEAgent: Self-Evolving Computer Use Agent with Autonomous Learning from Experience [71.82719117238307]
本稿では,コンピュータ利用エージェントが不慣れなソフトウェアとのインタラクションを通じて進化することを可能にするエージェント型自己進化フレームワークSEAgentを提案する。
我々は、OS-World内の5つの新しいソフトウェア環境におけるSEAgentの有効性を検証する。
当社のアプローチは,競合するオープンソースCUAに比べて,11.3%から34.5%という,23.2%の大幅な改善を実現している。
論文 参考訳(メタデータ) (2025-08-06T17:58:46Z) - HealthFlow: A Self-Evolving AI Agent with Meta Planning for Autonomous Healthcare Research [16.963151914975438]
私たちは、新しいメタレベルの進化メカニズムを通じて制限を克服する、自己進化型AIエージェントであるHealthFlowを紹介します。
HealthFlowは、手続き的な成功と失敗を永続的で戦略的知識基盤に蒸留することで、独自のハイレベルな問題解決ポリシーを自律的に洗練する。
私たちの実験では、HealthFlowの自己進化アプローチが最先端のエージェントフレームワークを大幅に上回っていることを実証しています。
論文 参考訳(メタデータ) (2025-08-04T17:08:47Z) - Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents [44.34340798542]
大きな言語モデル(LLM)は、複雑な推論を必要とする自然言語タスクにおいて顕著な能力を示している。
静的データセットに対する従来の教師付き事前トレーニングは、自律的なエージェント機能を実現するには不十分である。
本稿では,モンテカルロ木探索(MCTS)を自己批判機構と組み合わせ,エージェント間相互作用を反復的に微調整するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T20:52:13Z) - CACA Agent: Capability Collaboration based AI Agent [18.84686313298908]
本稿ではCACAエージェント(Capability Collaboration based AI Agent)を提案する。
CACA Agentは、単一のLLMへの依存を減らすだけでなく、AI Agentを実装するための一連のコラボレーティブ機能を統合する。
本稿ではCACAエージェントの動作とアプリケーションシナリオの拡張について説明する。
論文 参考訳(メタデータ) (2024-03-22T11:42:47Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。