論文の概要: Mitigating belief projection in explainable artificial intelligence via
Bayesian Teaching
- arxiv url: http://arxiv.org/abs/2102.03919v1
- Date: Sun, 7 Feb 2021 21:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 07:45:21.851886
- Title: Mitigating belief projection in explainable artificial intelligence via
Bayesian Teaching
- Title(参考訳): ベイズ教示による説明可能な人工知能における信念投影の緩和
- Authors: Scott Cheng-Hsin Yang, Wai Keen Vong, Ravi B. Sojitra, Tomas Folke,
Patrick Shafto
- Abstract要約: 説明可能なAI(XAI)は人間の理解を改善しようとするが、人々がよく知らないエージェントをどう考えるかを説明することは滅多にない。
ベイジアン・インストラクション(ベイジアン・インストラクション)を通したヒューマン・インストラクタのモデル化について提案する。
- 参考スコア(独自算出の注目度): 4.864819846886143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art deep-learning systems use decision rules that are
challenging for humans to model. Explainable AI (XAI) attempts to improve human
understanding but rarely accounts for how people typically reason about
unfamiliar agents. We propose explicitly modeling the human explainee via
Bayesian Teaching, which evaluates explanations by how much they shift
explainees' inferences toward a desired goal. We assess Bayesian Teaching in a
binary image classification task across a variety of contexts. Absent
intervention, participants predict that the AI's classifications will match
their own, but explanations generated by Bayesian Teaching improve their
ability to predict the AI's judgements by moving them away from this prior
belief. Bayesian Teaching further allows each case to be broken down into
sub-examples (here saliency maps). These sub-examples complement whole examples
by improving error detection for familiar categories, whereas whole examples
help predict correct AI judgements of unfamiliar cases.
- Abstract(参考訳): 最先端のディープラーニングシステムは、人間がモデル化することが難しい決定ルールを使用する。
説明可能なAI(XAI)は人間の理解を改善しようとするが、人々がよく知らないエージェントをどう考えるかを説明することは滅多にない。
そこで本研究では,説明者の推論を希望する目標にどの程度移行させるかによって説明を評価するベイズ的指導を通して,説明者を明示的にモデル化することを提案する。
様々な文脈にまたがる二元画像分類課題におけるベイズ教育の評価を行う。
絶え間ない介入により、参加者はAIの分類が彼ら自身のものと一致すると予測するが、ベイズ教養が生み出した説明は、AIの判断をこの以前の信念から遠ざけることで予測する能力を向上させる。
ベイズ教育はさらに、各ケースを副例に分解することができる(ここではサラジェンシーマップ)。
これらのサブサンプルは、見慣れたカテゴリのエラー検出を改善することによって、すべての例を補完する。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Relevant Irrelevance: Generating Alterfactual Explanations for Image Classifiers [11.200613814162185]
本稿では,ブラックボックス画像分類器の再現的説明の実現可能性を示す。
ニューラルネットワークに基づくブラックボックスモデルにこのアイデアを適用することが可能であることを初めて示します。
論文 参考訳(メタデータ) (2024-05-08T11:03:22Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Natural Example-Based Explainability: a Survey [0.0]
本稿では,自然例に基づくXAIにおける最先端技術の概要について述べる。
同様の例、反実例、半実例、影響力のある例、プロトタイプ、コンセプトなどです。
論文 参考訳(メタデータ) (2023-09-05T09:46:20Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。