論文の概要: Explaining Reward Functions to Humans for Better Human-Robot
Collaboration
- arxiv url: http://arxiv.org/abs/2110.04192v1
- Date: Fri, 8 Oct 2021 15:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-11 16:26:28.316966
- Title: Explaining Reward Functions to Humans for Better Human-Robot
Collaboration
- Title(参考訳): 人間とロボットの協調性向上のためのリワード機能の説明
- Authors: Lindsay Sanneman and Julie Shah
- Abstract要約: エージェント報酬関数を記述する説明可能なAI技術は、さまざまな設定で人間とロボットのコラボレーションを強化することができる。
価値アライメント設定では、エージェントは人間の報酬関数を相互作用を通じて推測し、人間のタスクを補助することを目的としている。
本稿では,報酬説明手法における情報モダリティの分類,報酬理解のための評価手法のスイートの提案,ドメインの複雑さの4つの軸の導入について述べる。
- 参考スコア(独自算出の注目度): 10.29932907833086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable AI techniques that describe agent reward functions can enhance
human-robot collaboration in a variety of settings. One context where human
understanding of agent reward functions is particularly beneficial is in the
value alignment setting. In the value alignment context, an agent aims to infer
a human's reward function through interaction so that it can assist the human
with their tasks. If the human can understand where gaps exist in the agent's
reward understanding, they will be able to teach more efficiently and
effectively, leading to quicker human-agent team performance improvements. In
order to support human collaborators in the value alignment setting and similar
contexts, it is first important to understand the effectiveness of different
reward explanation techniques in a variety of domains. In this paper, we
introduce a categorization of information modalities for reward explanation
techniques, suggest a suite of assessment techniques for human reward
understanding, and introduce four axes of domain complexity. We then propose an
experiment to study the relative efficacy of a broad set of reward explanation
techniques covering multiple modalities of information in a set of domains of
varying complexity.
- Abstract(参考訳): エージェント報酬関数を記述する説明可能なAI技術は、さまざまな設定で人間とロボットのコラボレーションを強化することができる。
エージェント報酬関数に対する人間の理解が特に有益となる文脈は、値アライメントの設定である。
価値アライメントの文脈では、エージェントは人間の報酬関数を相互作用を通じて推測し、人間のタスクを補助することを目的としている。
もし人間がエージェントの報酬理解にギャップがあることを理解できれば、より効率的かつ効果的に教えられるようになり、より迅速なヒューマンエージェントチームのパフォーマンス改善につながるでしょう。
価値アライメント設定や同様のコンテキストにおいて,人間の協力者を支援するためには,まず,様々な領域における報酬説明手法の有効性を理解することが重要である。
本稿では,報酬説明手法における情報モダリティの分類,人間報酬理解のための一連の評価手法の提案,ドメイン複雑性の4つの軸を紹介する。
次に,様々な複雑さの領域の集合における情報の多様性をカバーする報奨説明手法の相対的有効性を検討する実験を提案する。
関連論文リスト
- Learning to Assist Humans without Inferring Rewards [65.28156318196397]
我々は、エンパワーメントのレンズを通して支援を研究する先行研究に基づいて構築する。
補助剤は、人間の行動の影響を最大化することを目的としている。
これらの表現は、先行研究と類似したエンパワーメントの概念を推定する。
論文 参考訳(メタデータ) (2024-11-04T21:31:04Z) - Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - On the Effect of Contextual Information on Human Delegation Behavior in
Human-AI collaboration [3.9253315480927964]
我々は、AIにインスタンスを委譲するために、人間の意思決定に文脈情報を提供することの効果について検討する。
参加者にコンテキスト情報を提供することで,人間-AIチームのパフォーマンスが大幅に向上することがわかった。
本研究は,人間代表団における人間とAIの相互作用の理解を深め,より効果的な協調システムを設計するための実用的な洞察を提供する。
論文 参考訳(メタデータ) (2024-01-09T18:59:47Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Improving Grounded Language Understanding in a Collaborative Environment
by Interacting with Agents Through Help Feedback [42.19685958922537]
我々は、人間とAIのコラボレーションは対話的であり、人間がAIエージェントの作業を監視し、エージェントが理解し活用できるフィードバックを提供するべきだと論じている。
本研究では, IGLUコンペティションによって定義された課題である, マイニングクラフトのような世界における対話型言語理解タスクを用いて, これらの方向を探索する。
論文 参考訳(メタデータ) (2023-04-21T05:37:59Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Learning Human Rewards by Inferring Their Latent Intelligence Levels in
Multi-Agent Games: A Theory-of-Mind Approach with Application to Driving Data [18.750834997334664]
我々は、人間は有理論的であり、他人の意思決定過程を推論する際に異なる知能レベルを持っていると論じる。
学習中の人間の潜在知能レベルを推論する,新しいマルチエージェント逆強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-07T07:48:31Z) - Understanding the Effect of Out-of-distribution Examples and Interactive
Explanations on Human-AI Decision Making [19.157591744997355]
典型的な実験的なセットアップは、人間-AIチームの可能性を制限します。
インタラクティブな説明を支援する新しいインターフェースを開発し、人間がAI支援に積極的に取り組みます。
論文 参考訳(メタデータ) (2021-01-13T19:01:32Z) - One-shot Policy Elicitation via Semantic Reward Manipulation [2.668480521943575]
本稿では,新たなシーケンシャル最適化アルゴリズムであるSingle-shot Policy Explanation for Augmenting Rewards (SPEAR)について述べる。
本研究では,SPEARが実行時および対応可能な問題サイズにおいて,最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-01-06T04:11:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。