論文の概要: A Unifying Bayesian Formulation of Measures of Interpretability in
Human-AI
- arxiv url: http://arxiv.org/abs/2104.10743v1
- Date: Wed, 21 Apr 2021 20:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:58:48.871389
- Title: A Unifying Bayesian Formulation of Measures of Interpretability in
Human-AI
- Title(参考訳): 人間AIにおける解釈可能性尺度の統一ベイズ的定式化
- Authors: Sarath Sreedharan, Anagha Kulkarni, David E. Smith, Subbarao
Kambhampati
- Abstract要約: 我々は,エージェントに関する人間の観察者の進化的信念をモデル化する統一ベイズフレームワークを提案する。
本研究では, 拡張性, 可読性, 予測可能性といった解釈可能性尺度の定義が, 一般的な枠組みの特例として現れることを示した。
- 参考スコア(独自算出の注目度): 25.239891076153025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for generating human-aware agent behaviors have
considered different measures of interpretability in isolation. Further, these
measures have been studied under differing assumptions, thus precluding the
possibility of designing a single framework that captures these measures under
the same assumptions. In this paper, we present a unifying Bayesian framework
that models a human observer's evolving beliefs about an agent and thereby
define the problem of Generalized Human-Aware Planning. We will show that the
definitions of interpretability measures like explicability, legibility and
predictability from the prior literature fall out as special cases of our
general framework. Through this framework, we also bring a previously ignored
fact to light that the human-robot interactions are in effect open-world
problems, particularly as a result of modeling the human's beliefs over the
agent. Since the human may not only hold beliefs unknown to the agent but may
also form new hypotheses about the agent when presented with novel or
unexpected behaviors.
- Abstract(参考訳): 人間の認識エージェント行動を生成する既存のアプローチは、別個の解釈可能性の異なる尺度を検討してきた。
さらに、これらの措置は異なる仮定の下で研究されており、同じ仮定の下でこれらの措置を捉える単一の枠組みを設計する可能性を排除している。
本稿では,エージェントに関する人間のオブザーバの進化的信念をモデル化し,汎用的なヒューマンアウェア・プランニングの問題を定義するベイズフレームワークを提案する。
一般的な枠組みの特別な場合として, 説明可能性, 正当性, 予測可能性といった解釈可能性の定義が, 先行文献から逸脱していることを示す。
この枠組みを通じて、人間とロボットの相互作用は、特にエージェントに対する人間の信念をモデル化した結果、事実上、オープンワールドの問題であるということに、これまで無視されていた事実をもたらす。
人間はエージェントに未知の信念を持つだけでなく、新しい行動や予期しない行動を示す際に、エージェントに関する新たな仮説を形成することもある。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Approximating Human Models During Argumentation-based Dialogues [4.178382980763478]
説明可能なAI計画(XAIP)の主な課題は、モデルの和解である。
本稿では,AIエージェントによる確率的人間モデル学習と更新を可能にする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T23:22:18Z) - The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - Ground(less) Truth: A Causal Framework for Proxy Labels in
Human-Algorithm Decision-Making [29.071173441651734]
人間のAI意思決定タスクにおけるプロキシラベルの有効性に影響を与える5つの変数バイアス源を同定する。
各バイアス間の関係を乱すための因果的枠組みを開発する。
今後の研究において、ターゲット変数バイアスに対処する機会について論じる。
論文 参考訳(メタデータ) (2023-02-13T16:29:11Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z) - A Bayesian Account of Measures of Interpretability in Human-AI
Interaction [34.99424576619341]
解釈可能なエージェントの振る舞いを設計するための既存のアプローチは、分離時の解釈可能性の異なる尺度を考える。
これらすべての振る舞いを有意義にモデル化できる改訂モデルを提案する。
この統合モデルによる興味深い結果を強調し、ユーザスタディの結果を動機付けます。
論文 参考訳(メタデータ) (2020-11-22T03:28:28Z) - A General Framework for Distributed Inference with Uncertain Models [14.8884251609335]
異種エージェントのネットワークを用いた分散分類の問題について検討する。
我々は、エージェントの不確実性を可能性に組み込む不確実性モデルの概念に基づいて構築する。
論文 参考訳(メタデータ) (2020-11-20T22:17:12Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。