論文の概要: Time-Scaling Is What Agents Need Now
- arxiv url: http://arxiv.org/abs/2601.02714v1
- Date: Tue, 06 Jan 2026 05:01:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.80273
- Title: Time-Scaling Is What Agents Need Now
- Title(参考訳): タイムスケーリングは、エージェントが今必要とするもの
- Authors: Zhi Liu, Guangzhi Wang,
- Abstract要約: 人間は時間化シーケンシャル推論によって限られた認知資源の下で問題を解決する。
DeepSeek-R1のような最近のモデルでは、明示的な推論トラジェクトリによってパフォーマンスが向上している。
タイムスケーリング(Time-Scaling)は、拡張時間経路を利用したアーキテクチャ設計である。
- 参考スコア(独自算出の注目度): 14.04852184032241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early artificial intelligence paradigms exhibited separated cognitive functions: Neural Networks focused on "perception-representation," Reinforcement Learning on "decision-making-behavior," and Symbolic AI on "knowledge-reasoning." With Transformer-based large models and world models, these paradigms are converging into cognitive agents with closed-loop "perception-decision-action" capabilities. Humans solve complex problems under limited cognitive resources through temporalized sequential reasoning. Language relies on problem space search for deep semantic reasoning. While early large language models (LLMs) could generate fluent text, they lacked robust semantic reasoning capabilities. Prompting techniques like Chain-of-Thought (CoT) and Tree-of-Thought (ToT) extended reasoning paths by making intermediate steps explicit. Recent models like DeepSeek-R1 enhanced performance through explicit reasoning trajectories. However, these methods have limitations in search completeness and efficiency. This highlights the need for "Time-Scaling"--the systematic extension and optimization of an agent's ability to unfold reasoning over time. Time-Scaling refers to architectural design utilizing extended temporal pathways, enabling deeper problem space exploration, dynamic strategy adjustment, and enhanced metacognitive control, paralleling human sequential reasoning under cognitive constraints. It represents a critical frontier for enhancing deep reasoning and problem-solving without proportional increases in static model parameters. Advancing intelligent agent capabilities requires placing Time-Scaling principles at the forefront, positioning explicit temporal reasoning management as foundational.
- Abstract(参考訳): 初期の人工知能パラダイムでは、知覚表現に焦点を当てたニューラルネットワーク、意思決定行動に関する強化学習、知識推論に関するシンボリックAIなど、認知機能を分離していた。
Transformerベースの大規模モデルと世界モデルにより、これらのパラダイムはクローズドループの「知覚-決定-アクション」機能を備えた認知エージェントに集約されている。
人間は時間化シーケンシャル推論によって限られた認知資源の下で複雑な問題を解く。
言語は深い意味論的推論のための問題空間探索に依存している。
初期の大きな言語モデル(LLMs)は、流動的なテキストを生成することができたが、堅牢なセマンティック推論機能に欠けていた。
Chain-of-Thought (CoT) や Tree-of-Thought (ToT) は中間ステップを明確にすることで推論パスを拡張した。
DeepSeek-R1のような最近のモデルでは、明確な推論トラジェクトリによってパフォーマンスが向上している。
しかし,これらの手法は検索完全性や効率性に限界がある。
これは、時間とともに推論を展開できるエージェントの系統的な拡張と最適化である"Time-Scaling"の必要性を強調している。
タイムスケーリング(Time-Scaling)とは、時間的経路を拡張し、より深い問題空間探索、動的な戦略調整、メタ認知制御の強化を可能にし、人間のシーケンシャルな推論を認知的制約の下で並列化するアーキテクチャ設計である。
これは、静的モデルパラメータの比例的な増加を伴わずに、深い推論と問題解決を強化するための重要なフロンティアである。
インテリジェントエージェント能力の強化には、時間スケーリングの原則を最前線に配置し、明確な時間的推論管理を基本的なものとして位置づける必要がある。
関連論文リスト
- Real-Time Reasoning Agents in Evolving Environments [52.21796134114843]
進化する環境におけるエージェントに対する新しい問題定式化としてリアルタイム推論を導入する。
我々の研究は、実用的なエージェントを開発するための重要なテストベッドとしてリアルタイム推論を確立している。
論文 参考訳(メタデータ) (2025-11-07T00:51:02Z) - AI Agents as Universal Task Solvers [94.49762121230042]
我々は,過去のデータを用いて,普遍的な解法が達成できる最適なスピードアップが,アルゴリズム情報と密接な関係があることを示す。
我々は、推論モデルをスケールする際に最適化する重要な量は時間であり、学習における重要な役割は、これまでは間接的にのみ考慮されてきたと論じている。
論文 参考訳(メタデータ) (2025-10-14T02:17:54Z) - Decoupling Understanding from Reasoning via Problem Space Mapping for Small-scale Model Reasoning [22.582715282848795]
本稿では、自然言語問題を標準問題空間にマッピングすることで、推論から理解を分離する新しいフレームワークを提案する。
本フレームワークでは, 自己蒸留による推論軌道を反復的に整列する3段階のアルゴリズムであるDURITを導入する。
実験により、DURITはドメイン内およびドメイン外の数学的および論理的推論タスクにおけるSLMの性能を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-08-07T01:13:30Z) - A Survey on Latent Reasoning [100.54120559169735]
大きな言語モデル(LLM)は印象的な推論機能を示している。
中間ステップを言語化するCoT推論は、モデルの表現帯域幅を制限する。
潜在的推論は、モデルの連続的な隠れ状態に完全にマルチステップの推論を実行することで、このボトルネックに対処する。
論文 参考訳(メタデータ) (2025-07-08T17:29:07Z) - Reasoning in machine vision: learning to think fast and slow [10.430190333487957]
推論は人間の知性の目印であり、複雑で不慣れなシナリオで適応的な意思決定を可能にする。
マシンインテリジェンスは、推論時にソリューションを動的に洗練する能力がないため、トレーニングデータに縛られている。
本稿では,思考時間の増加に伴う性能向上を実現することにより,視覚における機械推論を可能にする新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-27T10:03:05Z) - Adaptive Deep Reasoning: Triggering Deep Thinking When Needed [28.575411507835973]
大規模言語モデル(LLM)は、ロングチェーン推論による複雑なタスクの処理において、優れた機能を示している。
本稿では,問題複雑性に基づいて,短鎖と長鎖の推論チェーンを自律的に切り替える手法を提案する。
この進歩は、現実世界の応用のための大規模言語モデルにおける推論の実践性を高める。
論文 参考訳(メタデータ) (2025-05-26T15:08:51Z) - From Chaos to Order: The Atomic Reasoner Framework for Fine-grained Reasoning in Large Language Models [46.02816479205161]
我々は,微粒な推論を可能にする認知推論戦略であるtextbfAtomic Reasoner(textbfAR)を提案する。
ARは推論プロセスを原子認知単位に分解し、認知的ルーティング機構を使用する。
結果より, 完全解探索の計算負担を伴わないARの優れた推論能力を示す。
論文 参考訳(メタデータ) (2025-03-20T08:34:53Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。