論文の概要: The Era of Agentic Organization: Learning to Organize with Language Models
- arxiv url: http://arxiv.org/abs/2510.26658v1
- Date: Thu, 30 Oct 2025 16:25:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.90391
- Title: The Era of Agentic Organization: Learning to Organize with Language Models
- Title(参考訳): エージェント組織の時代:言語モデルで組織化を学ぶ
- Authors: Zewen Chi, Li Dong, Qingxiu Dong, Yaru Hao, Xun Wu, Shaohan Huang, Furu Wei,
- Abstract要約: 我々は,非同期思考(AsyncThink)を大規模言語モデルを用いた推論の新しいパラダイムとして紹介する。
実験では、AsyncThinkは並列思考に比べて28%低い推論遅延を実現している。
AsyncThinkは学習した非同期思考機能を一般化し、未確認タスクを追加のトレーニングなしで効果的に処理する。
- 参考スコア(独自算出の注目度): 107.41382234213893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We envision a new era of AI, termed agentic organization, where agents solve complex problems by working collaboratively and concurrently, enabling outcomes beyond individual intelligence. To realize this vision, we introduce asynchronous thinking (AsyncThink) as a new paradigm of reasoning with large language models, which organizes the internal thinking process into concurrently executable structures. Specifically, we propose a thinking protocol where an organizer dynamically assigns sub-queries to workers, merges intermediate knowledge, and produces coherent solutions. More importantly, the thinking structure in this protocol can be further optimized through reinforcement learning. Experiments demonstrate that AsyncThink achieves 28% lower inference latency compared to parallel thinking while improving accuracy on mathematical reasoning. Moreover, AsyncThink generalizes its learned asynchronous thinking capabilities, effectively tackling unseen tasks without additional training.
- Abstract(参考訳): 我々はエージェント組織と呼ばれるAIの新しい時代を思い描いており、エージェントは協調的に同時に働き、個々の知性を超えた結果を可能にすることで複雑な問題を解決する。
このビジョンを実現するために、我々は非同期思考(AsyncThink)を大規模言語モデルによる推論の新しいパラダイムとして導入し、内部思考プロセスを並列実行可能な構造に整理する。
具体的には,作業者に対して動的にサブクエリを割り当て,中間知識をマージし,一貫性のあるソリューションを生成する思考プロトコルを提案する。
さらに重要なことに、このプロトコルの思考構造は強化学習によってさらに最適化することができる。
実験により、AsyncThinkは、並列思考よりも28%低い推論遅延を実現し、数学的推論の精度を改善した。
さらにAsyncThinkは、学習した非同期思考機能を一般化し、未確認タスクを追加のトレーニングなしで効果的に処理する。
関連論文リスト
- Reasoning-Aware Prompt Orchestration: A Foundation Model for Multi-Agent Language Model Coordination [0.0]
複数の特殊エージェント間の推論を強化する動的プロンプトオーケストレーションのための理論的基盤となるフレームワークを提案する。
このフレームワークは,エージェント移行時の論理的一貫性の維持,推論対応の迅速な適応,分散推論のスケーラブルな調整,という3つの課題に対処する。
1000件の合成マルチエージェント会話実験の結果,推論遅延の42%低減,ROUGE-Lスコアによる論理的整合性の23%改善,文脈損失のないタスク完了の89%の成功率が確認された。
論文 参考訳(メタデータ) (2025-09-30T22:33:01Z) - A Concurrent Modular Agent: Framework for Autonomous LLM Agents [0.995321385692873]
LLM(Large-Language-Model)ベースの複数のモジュールをオーケストレーションするフレームワークであるCMA(Concurrent Modular Agent)を紹介した。
我々はこのアプローチをミンスキーの心の理論の実践的実現とみなす。
我々のシステムで観察された創発的特性は、自己認識のような複雑な認知現象が、単純なプロセスの組織的な相互作用によってもたらされることを示唆している。
論文 参考訳(メタデータ) (2025-08-26T13:58:31Z) - Reducing Cognitive Overhead in Tool Use via Multi-Small-Agent Reinforcement Learning [1.974921946982281]
ツールの使用から推論を明示的に分離するフレームワークであるMSARLを提案する。
MSARLでは、Reasoning Agentが問題とツール呼び出しを分解し、複数のツールエージェントが特定の外部ツールを専門にしている。
コード実行による数学的問題解決において、MSARLは単一エージェントベースラインに対する推論安定性と最終回答精度を大幅に改善する。
論文 参考訳(メタデータ) (2025-08-12T12:10:53Z) - Boosting Team Modeling through Tempo-Relational Representation Learning [9.427356802394437]
チームモデリングは、人工知能と社会科学の交差点における根本的な課題である。
i) 自動時間グラフ抽出器, (ii) テンポ関係エンコーダ, (iii) チーム構成予測のためのデコーダ, (iv) 相補的説明可能性モジュール。
論文 参考訳(メタデータ) (2025-07-17T17:22:41Z) - Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Multi-Agent Collaboration via Evolving Orchestration [55.574417128944226]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な成果を上げているが、そのモノリシックな性質は複雑な問題解決におけるスケーラビリティと効率を制限している。
LLMに基づくマルチエージェントコラボレーションのためのパウチスタイルのパラダイムを提案し,タスク状態の進化に応じて,中央集権的なオーケストレータ("puppeteer")がエージェント("puppets")を動的に指示する。
クローズドドメインおよびオープンドメインシナリオの実験により,この手法は計算コストを低減し,優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2025-05-26T07:02:17Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Collaborating with language models for embodied reasoning [30.82976922056617]
複雑で曖昧な環境での推論は、強化学習(RL)エージェントの重要な目標である。
本稿では,ゼロショットを一般化し,障害事例を調査するシステムの能力を検証し,推論を必要とする一連のタスクを提案する。
論文 参考訳(メタデータ) (2023-02-01T21:26:32Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。