論文の概要: ProAgent: Harnessing On-Demand Sensory Contexts for Proactive LLM Agent Systems
- arxiv url: http://arxiv.org/abs/2512.06721v1
- Date: Sun, 07 Dec 2025 08:21:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.488731
- Title: ProAgent: Harnessing On-Demand Sensory Contexts for Proactive LLM Agent Systems
- Title(参考訳): ProAgent: プロアクティブLLMエージェントシステムのためのオンデマンド感覚コンテキストのハーネス化
- Authors: Bufang Yang, Lilin Xu, Liekang Zeng, Yunqi Guo, Siyang Jiang, Wenrui Lu, Kaiwei Liu, Hancheng Xiang, Xiaofan Jiang, Guoliang Xing, Zhenyu Yan,
- Abstract要約: ProAgentは、大量の感覚コンテキストとLCM推論を利用してプロアクティブアシストを提供するエンドツーエンドのプロアクティブエージェントシステムである。
ProAgent on Augmented Reality (AR) メガネをエッジサーバで実装し,実世界のテストベッド,パブリックデータセット,ユーザスタディを通じて広範囲に評価する。
その結果,ProAgentは最大33.4%,ツールコールF1スコア16.8%,ユーザの満足度が向上した。
- 参考スコア(独自算出の注目度): 7.591337469415894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM) agents are emerging to transform daily life. However, existing LLM agents primarily follow a reactive paradigm, relying on explicit user instructions to initiate services, which increases both physical and cognitive workload. In this paper, we propose ProAgent, the first end-to-end proactive agent system that harnesses massive sensory contexts and LLM reasoning to deliver proactive assistance. ProAgent first employs a proactive-oriented context extraction approach with on-demand tiered perception to continuously sense the environment and derive hierarchical contexts that incorporate both sensory and persona cues. ProAgent then adopts a context-aware proactive reasoner to map these contexts to user needs and tool calls, providing proactive assistance. We implement ProAgent on Augmented Reality (AR) glasses with an edge server and extensively evaluate it on a real-world testbed, a public dataset, and through a user study. Results show that ProAgent achieves up to 33.4% higher proactive prediction accuracy, 16.8% higher tool-calling F1 score, and notable improvements in user satisfaction over state-of-the-art baselines, marking a significant step toward proactive assistants. A video demonstration of ProAgent is available at https://youtu.be/pRXZuzvrcVs.
- Abstract(参考訳): 大きな言語モデル(LLM)エージェントが出現し、日々の生活を変革している。
しかし、既存のLLMエージェントは主にリアクティブパラダイムに従っており、サービスを開始するための明示的なユーザ命令に依存しており、物理的な作業量と認知的作業量の両方が増加する。
本稿では,大規模感覚コンテキストとLCM推論を利用してプロアクティブアシストを実現する,初のエンド・ツー・エンドプロアクティブエージェントであるProAgentを提案する。
ProAgentはまず、環境を継続的に感知し、感覚とペルソナの両方の手がかりを取り入れた階層的コンテキストを導出するために、オンデマンドの階層的知覚を伴うプロアクティブ指向のコンテキスト抽出アプローチを採用する。
ProAgentはこれらのコンテキストをユーザのニーズやツールコールにマッピングし、アクティブなアシストを提供する。
ProAgent on Augmented Reality (AR) メガネをエッジサーバで実装し,実世界のテストベッド,パブリックデータセット,ユーザスタディを通じて広範囲に評価する。
その結果、ProAgentは最大33.4%の予測精度、16.8%のツールコールF1スコア、および最先端のベースラインに対するユーザの満足度の向上を実現し、プロアクティブアシスタントへの大きな一歩となった。
ProAgentのデモビデオはhttps://youtu.be/pRXZuzvrcVsで公開されている。
関連論文リスト
- AppAgent-Pro: A Proactive GUI Agent System for Multidomain Information Integration and User Assistance [64.78994124332989]
AppAgent-Proは、ユーザ命令に基づいて複数のドメイン情報を積極的に統合するプロアクティブGUIエージェントシステムである。
AppAgent-Proは、日常生活における情報取得を根本的に再定義する可能性を秘めている。
論文 参考訳(メタデータ) (2025-08-26T05:23:24Z) - ContextAgent: Context-Aware Proactive LLM Agents with Open-World Sensory Perceptions [8.300084456561171]
最初のコンテキスト対応プロアクティブエージェントであるContextAgentを紹介する。
ContextAgentは、ユーザの意図を理解するために、ウェアラブル上の知覚的知覚から多次元コンテキストを抽出する。
アクティブなアシストが必要な場合、ContextAgentは自動的に必要なツールを呼び出す。
論文 参考訳(メタデータ) (2025-05-20T17:55:25Z) - AgentOccam: A Simple Yet Strong Baseline for LLM-Based Web Agents [52.13695464678006]
本研究は, 観察空間と行動空間を簡略化することで, LLMベースのWebエージェントを強化する。
AgentOccam は以前の最先端および同時処理を 9.8 (+29.4%) と 5.9 (+15.8%) で上回っている。
論文 参考訳(メタデータ) (2024-10-17T17:50:38Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。