論文の概要: Learning to Wait: Synchronizing Agents with the Physical World
- arxiv url: http://arxiv.org/abs/2512.16262v1
- Date: Thu, 18 Dec 2025 07:24:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.965395
- Title: Learning to Wait: Synchronizing Agents with the Physical World
- Title(参考訳): 待つことを学ぶ:物理世界とシンクロナイズドエージェント
- Authors: Yifei She, Ping Zhang, He Liu, Yanmin Jia, Yang Jing, Zijun Liu, Peng Sun, Xiangbin Li, Xiaohe Hu,
- Abstract要約: 現実世界のエージェントタスクは、しばしば可変レイテンシを持つノンブロッキングアクションを伴い、アクション開始と完了の間に基本的なテキストTemporal Gapを生成する。
ラッパーのブロックや頻繁なポーリングといった既存の環境側のソリューションは、スケーラビリティを制限するか、冗長な観察でエージェントのコンテキストウィンドウを希薄にする。
我々は,大規模言語モデルに対して,テキスト認識タイムラインと物理世界との協調を積極的に行うためのtextbfAgent-sideアプローチを提案する。
- 参考スコア(独自算出の注目度): 16.592968251465475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world agentic tasks, unlike synchronous Markov Decision Processes (MDPs), often involve non-blocking actions with variable latencies, creating a fundamental \textit{Temporal Gap} between action initiation and completion. Existing environment-side solutions, such as blocking wrappers or frequent polling, either limit scalability or dilute the agent's context window with redundant observations. In this work, we propose an \textbf{Agent-side Approach} that empowers Large Language Models (LLMs) to actively align their \textit{Cognitive Timeline} with the physical world. By extending the Code-as-Action paradigm to the temporal domain, agents utilize semantic priors and In-Context Learning (ICL) to predict precise waiting durations (\texttt{time.sleep(t)}), effectively synchronizing with asynchronous environment without exhaustive checking. Experiments in a simulated Kubernetes cluster demonstrate that agents can precisely calibrate their internal clocks to minimize both query overhead and execution latency, validating that temporal awareness is a learnable capability essential for autonomous evolution in open-ended environments.
- Abstract(参考訳): 実世界のエージェントタスクは、同期マルコフ決定プロセス(MDP)とは異なり、しばしば可変遅延を持つノンブロッキングアクションを伴い、アクション開始と完了の間に基本的 \textit{Temporal Gap} を生成する。
ラッパーのブロックや頻繁なポーリングといった既存の環境側のソリューションは、スケーラビリティを制限するか、冗長な観察でエージェントのコンテキストウィンドウを希薄にする。
本稿では,Large Language Models (LLMs) を有効活用し,それらの \textit{Cognitive Timeline} を物理世界と積極的に連携させるための \textbf{Agent-side Approach を提案する。
Code-as-Actionパラダイムを時間領域に拡張することで、エージェントはセマンティック事前とインコンテキスト学習(ICL)を使用して正確な待ち時間(\texttt{time.sleep(t)})を予測する。
シミュレーションされたKubernetesクラスタの実験では、エージェントが内部クロックを正確に調整してクエリオーバヘッドと実行レイテンシを最小化し、時間的認識がオープンな環境における自律的な進化に不可欠な学習可能な能力であることを実証している。
関連論文リスト
- SCOPE: Prompt Evolution for Enhancing Agent Effectiveness [53.75986399936395]
大規模言語モデル(LLM)エージェントは、大規模で動的なコンテキストを生成する環境にますますデプロイされている。
エージェントはこのコンテキストにアクセスできますが、静的なプロンプトには効果的に管理するメカニズムがありません。
textbfSCOPE (Self-evolving Context Optimization via Prompt Evolution) を導入する。
本稿では,戦術的特異性(即時誤りの解消)と戦略的汎用性(長期原則の進化)のバランスをとるデュアルストリーム機構を提案する。
論文 参考訳(メタデータ) (2025-12-17T12:25:05Z) - Real-Time Inference for Distributed Multimodal Systems under Communication Delay Uncertainty [37.15356899831919]
接続されたサイバー物理システムは、複数のデータストリームからのリアルタイム入力に基づいて推論を行う。
本稿では,適応時間窓を用いたニューラルインスパイアされたノンブロッキング推論パラダイムを提案する。
我々のフレームワークは、精度-遅延トレードオフをきめ細かな制御で堅牢なリアルタイム推論を実現する。
論文 参考訳(メタデータ) (2025-11-20T10:48:54Z) - Adaptive Reinforcement Learning for Unobservable Random Delays [46.04329493317009]
本稿では,エージェントが観測不能かつ時間変化の遅れを適応的に処理できる汎用フレームワークを提案する。
具体的には、エージェントは予測不可能な遅延とネットワーク越しに送信される失われたアクションパケットの両方を処理するために、将来のアクションのマトリックスを生成する。
提案手法は,幅広いベンチマーク環境において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-06-17T11:11:37Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - Asynchronous Tool Usage for Real-Time Agents [61.3041983544042]
並列処理とリアルタイムツール利用が可能な非同期AIエージェントを導入する。
私たちの重要な貢献は、エージェントの実行とプロンプトのためのイベント駆動有限状態マシンアーキテクチャです。
この研究は、流体とマルチタスクの相互作用が可能なAIエージェントを作成するための概念的なフレームワークと実践的なツールの両方を提示している。
論文 参考訳(メタデータ) (2024-10-28T23:57:19Z) - MOSS: Enabling Code-Driven Evolution and Context Management for AI Agents [7.4159044558995335]
動的コンテキスト管理システムとコード生成を統合する新しいフレームワークであるMOSS(llM-oriented Operating System Simulation)を紹介する。
フレームワークの中核は、最小限の知識原則を強制するために、インバージョン・オブ・コントロールコンテナとデコレータを併用する。
我々は,このフレームワークがエージェント開発における効率性と能力をいかに向上させるかを示し,チューリング完全エージェントへの移行におけるその優位性を強調した。
論文 参考訳(メタデータ) (2024-09-24T14:30:21Z) - DASA: Delay-Adaptive Multi-Agent Stochastic Approximation [64.32538247395627]
我々は,N$エージェントが並列に動作し,中央サーバと通信することで,一般的な近似問題を高速化することを目的とした設定を考える。
遅延とストラグラーの効果を軽減するために,マルチエージェント近似のための遅延適応アルゴリズムである textttDASA を提案する。
論文 参考訳(メタデータ) (2024-03-25T22:49:56Z) - Asynchronous Actor-Critic for Multi-Agent Reinforcement Learning [19.540926205375857]
現実的な設定で複数のエージェント間で決定を同期することは、エージェントが他のエージェントが終了し、終了について確実に通信するのを待つ必要があるため、問題となる。
エージェントが3つの標準トレーニングパラダイムで非同期ポリシーを直接最適化できる非同期マルチエージェントアクター批判手法のセットを定式化する。
論文 参考訳(メタデータ) (2022-09-20T16:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。