論文の概要: A Bayesian Account of Measures of Interpretability in Human-AI
Interaction
- arxiv url: http://arxiv.org/abs/2011.10920v1
- Date: Sun, 22 Nov 2020 03:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 09:08:10.519556
- Title: A Bayesian Account of Measures of Interpretability in Human-AI
Interaction
- Title(参考訳): 人間-AIインタラクションにおける解釈可能性尺度のベイズ的考察
- Authors: Sarath Sreedharan, Anagha Kulkarni, Tathagata Chakraborti, David E.
Smith and Subbarao Kambhampati
- Abstract要約: 解釈可能なエージェントの振る舞いを設計するための既存のアプローチは、分離時の解釈可能性の異なる尺度を考える。
これらすべての振る舞いを有意義にモデル化できる改訂モデルを提案する。
この統合モデルによる興味深い結果を強調し、ユーザスタディの結果を動機付けます。
- 参考スコア(独自算出の注目度): 34.99424576619341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for the design of interpretable agent behavior consider
different measures of interpretability in isolation. In this paper we posit
that, in the design and deployment of human-aware agents in the real world,
notions of interpretability are just some among many considerations; and the
techniques developed in isolation lack two key properties to be useful when
considered together: they need to be able to 1) deal with their mutually
competing properties; and 2) an open world where the human is not just there to
interpret behavior in one specific form. To this end, we consider three
well-known instances of interpretable behavior studied in existing literature
-- namely, explicability, legibility, and predictability -- and propose a
revised model where all these behaviors can be meaningfully modeled together.
We will highlight interesting consequences of this unified model and motivate,
through results of a user study, why this revision is necessary.
- Abstract(参考訳): 解釈可能なエージェントの振る舞いを設計するための既存のアプローチは、分離時の解釈可能性の異なる尺度を考える。
本稿では、現実世界における人間認識エージェントの設計と展開において、解釈可能性の概念は、多くの考慮事項の1つにすぎず、孤立的に開発された技術は、一緒に考えるときに有用である2つの重要な特性を欠いていることを実証する。
1) 相互に競合する財産を扱うこと,及び
2) 人間の行動がただ一つの特定の形で解釈されるだけの世界ではない。
この目的のために、既存の文献で研究されている解釈可能な行動の3つの例、すなわち、説明可能性、正当性、予測可能性について検討し、これら全ての行動が共に有意義にモデル化できる修正モデルを提案する。
この統合モデルによる興味深い結果を強調し、ユーザー調査の結果を通じて、なぜこの修正が必要なのかを動機付けます。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Inherent Inconsistencies of Feature Importance [6.02357145653815]
特徴重要度は、予測結果に対する個々の特徴の寄与にスコアを割り当てる手法である。
本稿では,特徴重要度スコアの異なる文脈間のコヒーレントな関係を確立するために設計された公理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-16T14:21:51Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - A Unifying Bayesian Formulation of Measures of Interpretability in
Human-AI [25.239891076153025]
我々は,エージェントに関する人間の観察者の進化的信念をモデル化する統一ベイズフレームワークを提案する。
本研究では, 拡張性, 可読性, 予測可能性といった解釈可能性尺度の定義が, 一般的な枠組みの特例として現れることを示した。
論文 参考訳(メタデータ) (2021-04-21T20:06:33Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。