論文の概要: Conveying Autonomous Robot Capabilities through Contrasting Behaviour
Summaries
- arxiv url: http://arxiv.org/abs/2304.00367v1
- Date: Sat, 1 Apr 2023 18:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 18:24:36.738713
- Title: Conveying Autonomous Robot Capabilities through Contrasting Behaviour
Summaries
- Title(参考訳): 行動要約の対比による自律ロボット能力の伝達
- Authors: Peter Du, Surya Murthy, Katherine Driggs-Campbell
- Abstract要約: 比較行動要約を効率的に生成する適応探索法を提案する。
この結果から,適応探索により,人間がより優れたエージェントを正確に選択できる情報コントラストのシナリオを効果的に特定できることが示唆された。
- 参考スコア(独自算出の注目度): 8.413049356622201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As advances in artificial intelligence enable increasingly capable
learning-based autonomous agents, it becomes more challenging for human
observers to efficiently construct a mental model of the agent's behaviour. In
order to successfully deploy autonomous agents, humans should not only be able
to understand the individual limitations of the agents but also have insight on
how they compare against one another. To do so, we need effective methods for
generating human interpretable agent behaviour summaries. Single agent
behaviour summarization has been tackled in the past through methods that
generate explanations for why an agent chose to pick a particular action at a
single timestep. However, for complex tasks, a per-action explanation may not
be able to convey an agents global strategy. As a result, researchers have
looked towards multi-timestep summaries which can better help humans assess an
agents overall capability. More recently, multi-step summaries have also been
used for generating contrasting examples to evaluate multiple agents. However,
past approaches have largely relied on unstructured search methods to generate
summaries and require agents to have a discrete action space. In this paper we
present an adaptive search method for efficiently generating contrasting
behaviour summaries with support for continuous state and action spaces. We
perform a user study to evaluate the effectiveness of the summaries for helping
humans discern the superior autonomous agent for a given task. Our results
indicate that adaptive search can efficiently identify informative contrasting
scenarios that enable humans to accurately select the better performing agent
with a limited observation time budget.
- Abstract(参考訳): 人工知能の進歩により、ますます有能な学習ベースの自律エージェントが可能となり、人間の観察者がエージェントの行動のメンタルモデルを構築することはより困難になる。
自律的なエージェントのデプロイを成功させるためには、人間はエージェントの個々の制限を理解するだけでなく、どのように互いに比較するかの洞察も持てなければならない。
そのためには、人間の解釈可能なエージェント行動要約を生成する効果的な方法が必要である。
エージェントの振る舞いの要約は、エージェントが特定のアクションを1つの時間ステップで選択した理由を説明するメソッドを通じて過去に取り組まれてきた。
しかし、複雑なタスクの場合、アクションごとの説明はエージェントのグローバル戦略を伝えることができないかもしれない。
その結果、研究者は、人間がエージェント全体の能力を評価するのに役立つ、多段階の要約に目を向けた。
最近では、複数のエージェントを評価するためにコントラストの例を生成するために、複数ステップの要約も使われている。
しかし、過去の手法は、要約を生成するために非構造化探索法に大きく依存しており、エージェントは離散的な行動空間を持つ必要がある。
本稿では,連続状態と動作空間をサポートした行動要約を効率的に生成する適応探索法を提案する。
本研究は,人間に与えられた課題に対して優れた自律エージェントを見分けるのに役立つサマリーの有効性を評価するためのユーザスタディを行う。
この結果から, 適応探索は, 限られた観測時間予算で優れたエージェントを正確に選択できる情報コントラストのシナリオを効果的に識別できることが示唆された。
関連論文リスト
- Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - Understanding Your Agent: Leveraging Large Language Models for Behavior
Explanation [7.647395374489533]
本研究では,状態や行動の観察のみに基づいて,エージェントの行動に関する自然言語説明を生成する手法を提案する。
提案手法は,人間ドメインの専門家が作成したものと同じくらい役立つ説明を生成する。
論文 参考訳(メタデータ) (2023-11-29T20:16:23Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Multi-Agent Embodied Visual Semantic Navigation with Scene Prior
Knowledge [42.37872230561632]
視覚的セマンティックナビゲーションでは、ロボットは自我中心の視覚的観察を行い、目標のクラスラベルが与えられる。
既存のモデルのほとんどは単一エージェントナビゲーションにのみ有効であり、より複雑なタスクを完了すると、単一のエージェントは低効率でフォールトトレランスが低い。
本稿では,複数のエージェントが協調して複数の対象物を見つけるマルチエージェント視覚意味ナビゲーションを提案する。
論文 参考訳(メタデータ) (2021-09-20T13:31:03Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - "I Don't Think So": Disagreement-Based Policy Summaries for Comparing
Agents [2.6270468656705765]
本稿では,エージェントのポリシーの違いを強調するコントラスト的な要約を生成する手法を提案する。
本結果から, 新規な不一致に基づく要約は, HighLIGHTS を用いた要約に比べてユーザパフォーマンスの向上につながることが示された。
論文 参考訳(メタデータ) (2021-02-05T09:09:00Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Multi-agent Policy Optimization with Approximatively Synchronous
Advantage Estimation [55.96893934962757]
マルチエージェントシステムでは、異なるエージェントの警察を共同で評価する必要がある。
現在の方法では、バリュー関数やアドバンテージ関数は非同期に評価される対実関節アクションを使用する。
本研究では,近似的に同期する利点推定を提案する。
論文 参考訳(メタデータ) (2020-12-07T07:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。