論文の概要: Requesting Expert Reasoning: Augmenting LLM Agents with Learned Collaborative Intervention
- arxiv url: http://arxiv.org/abs/2602.22546v1
- Date: Thu, 26 Feb 2026 02:38:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.490382
- Title: Requesting Expert Reasoning: Augmenting LLM Agents with Learned Collaborative Intervention
- Title(参考訳): 専門家による推論の要求: 学習した協調的介入によるLLMエージェントの増強
- Authors: Zhiming Wang, Jinwei He, Feng Lu,
- Abstract要約: AHCE(Active Human-Augmented Challenge Engagement)は、オンデマンドのHuman-AIコラボレーションのためのフレームワークである。
私たちの研究は、エージェントの強化に成功するためには、専門家の推論の仕方を学ぶ必要があることを実証しています。
- 参考スコア(独自算出の注目度): 18.166049121801016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM) based agents excel at general reasoning but often fail in specialized domains where success hinges on long-tail knowledge absent from their training data. While human experts can provide this missing knowledge, their guidance is often unstructured and unreliable, making its direct integration into an agent's plan problematic. To address this, we introduce AHCE (Active Human-Augmented Challenge Engagement), a framework for on-demand Human-AI collaboration. At its core, the Human Feedback Module (HFM) employs a learned policy to treat the human expert as an interactive reasoning tool. Extensive experiments in Minecraft demonstrate the framework's effectiveness, increasing task success rates by 32% on normal difficulty tasks and nearly 70% on highly difficult tasks, all with minimal human intervention. Our work demonstrates that successfully augmenting agents requires learning how to request expert reasoning, moving beyond simple requests for help.
- Abstract(参考訳): LLM(Large Language Model)ベースのエージェントは、一般的な推論において優れるが、成功が訓練データから外れた長い知識に依存している特殊なドメインでは失敗することが多い。
人間の専門家は、この不足した知識を提供することができるが、そのガイダンスは、しばしば構造化されず、信頼できないため、エージェントの計画への直接統合が問題となる。
これを解決するために、オンデマンドヒューマンAIコラボレーションのフレームワークであるAHCE(Active Human-Augmented Challenge Engagement)を紹介する。
その中核となるHuman Feedback Module(HFM)は、人間の専門家を対話的な推論ツールとして扱うために、学習したポリシーを採用している。
Minecraftの大規模な実験は、このフレームワークの有効性を示し、通常の困難タスクでは32%、非常に難しいタスクでは70%近く増加し、いずれも人間の介入を最小限に抑えている。
私たちの研究は、エージェントの強化に成功するためには、専門家の推論の仕方を学ぶ必要があります。
関連論文リスト
- AgentIF-OneDay: A Task-level Instruction-Following Benchmark for General AI Agents in Daily Scenarios [49.90735676070039]
持続時間と複雑さが増大するタスクを効果的に処理するAIエージェントの能力は、成長を続けている。
エージェントタスクの多様性に十分対処することなく,タスクの難易度の向上を優先している。
本稿では,自然言語命令とAIエージェントを多種多様な日常タスクに活用できるかどうかを判定するエージェントIF-OneDayを提案する。
論文 参考訳(メタデータ) (2026-01-28T13:49:18Z) - Training LLM Agents to Empower Humans [67.80021254324294]
本稿では,人間のエンパワーメントの最大化に基づく支援言語モデルのチューニング手法を提案する。
我々のエンパワーメント最大化手法であるEmpowerは、オフラインのテキストデータのみを必要とする。
我々は,Empowerで訓練されたエージェントが,プログラミング問題に挑戦する人間プログラマの成功率を平均192%向上させることを示す。
論文 参考訳(メタデータ) (2025-10-15T16:09:33Z) - Learning Individual Intrinsic Reward in Multi-Agent Reinforcement Learning via Incorporating Generalized Human Expertise [6.441011477647557]
マルチエージェント強化学習(MARL)の効率的な探索は、チーム報酬のみを受け取る場合の課題である。
この問題を緩和するための強力な方法は、エージェントを効率的な探索へと導くために、密集した個人報酬を作成することである。
本稿では,MARLアルゴリズムに人間の知識をエンドツーエンドで組み込む新しいフレームワーク LIGHT を提案する。
論文 参考訳(メタデータ) (2025-07-25T00:59:10Z) - SciMaster: Towards General-Purpose Scientific AI Agents, Part I. X-Master as Foundation: Can We Lead on Humanity's Last Exam? [51.112225746095746]
本稿では,人間研究者をエミュレートするツール強化推論エージェントであるX-Masterを紹介する。
XマスターズはHumanity's Last Examに32.1%のスコアで最新記録を樹立した。
論文 参考訳(メタデータ) (2025-07-07T17:50:52Z) - Robot-Gated Interactive Imitation Learning with Adaptive Intervention Mechanism [48.41735416075536]
インタラクティブ・イミテーション・ラーニング (Interactive Imitation Learning, IIL) は、エージェントが人間の介入を通じて望ましい行動を取得することを可能にする。
本稿では,人間の実演を依頼する適応的基準を学習するロボットゲート型IILアルゴリズムであるAdaptive Intervention Mechanism (AIM)を提案する。
論文 参考訳(メタデータ) (2025-06-10T18:43:26Z) - Towards Collaborative Question Answering: A Preliminary Study [63.91687114660126]
我々は、モデレーターによって調整された複数の専門家エージェントが協力して、単一のエージェントだけでは答えられない質問に答える新しいQAタスクCollabQAを提案する。
専門家に分散可能な,大規模な知識グラフの合成データセットを作成する。
専門家が完璧で均一でない限り,コラボレーション構造を導入することなく,この問題が解決可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T14:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。