論文の概要: I-CEE: Tailoring Explanations of Image Classification Models to User
Expertise
- arxiv url: http://arxiv.org/abs/2312.12102v2
- Date: Wed, 10 Jan 2024 15:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:44:47.655550
- Title: I-CEE: Tailoring Explanations of Image Classification Models to User
Expertise
- Title(参考訳): I-CEE: ユーザエキスパートのための画像分類モデルの解説
- Authors: Yao Rong, Peizhu Qian, Vaibhav Unhelkar, Enkelejda Kasneci
- Abstract要約: I-CEEは,ユーザエキスパートに適した画像分類記述を提供するフレームワークである。
I-CEEは、ユーザの専門知識に依存するサンプルイメージのインフォメーション性をモデル化し、異なるユーザに対して異なるサンプルを生成する。
シミュレーションされたユーザによる実験は、I-CEEがモデルの判断を正確に予測する能力を改善することを示している。
- 参考スコア(独自算出の注目度): 13.293968260458962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effectively explaining decisions of black-box machine learning models is
critical to responsible deployment of AI systems that rely on them. Recognizing
their importance, the field of explainable AI (XAI) provides several techniques
to generate these explanations. Yet, there is relatively little emphasis on the
user (the explainee) in this growing body of work and most XAI techniques
generate "one-size-fits-all" explanations. To bridge this gap and achieve a
step closer towards human-centered XAI, we present I-CEE, a framework that
provides Image Classification Explanations tailored to User Expertise. Informed
by existing work, I-CEE explains the decisions of image classification models
by providing the user with an informative subset of training data (i.e.,
example images), corresponding local explanations, and model decisions.
However, unlike prior work, I-CEE models the informativeness of the example
images to depend on user expertise, resulting in different examples for
different users. We posit that by tailoring the example set to user expertise,
I-CEE can better facilitate users' understanding and simulatability of the
model. To evaluate our approach, we conduct detailed experiments in both
simulation and with human participants (N = 100) on multiple datasets.
Experiments with simulated users show that I-CEE improves users' ability to
accurately predict the model's decisions (simulatability) compared to
baselines, providing promising preliminary results. Experiments with human
participants demonstrate that our method significantly improves user
simulatability accuracy, highlighting the importance of human-centered XAI
- Abstract(参考訳): ブラックボックス機械学習モデルの意思決定を効果的に説明することは、それらに依存するaiシステムの責任ある展開に不可欠である。
その重要性を認識して、説明可能なAI(XAI)の分野は、これらの説明を生成するためのいくつかの技術を提供している。
しかし、ユーザ(説明者)にはあまり重点を置いておらず、ほとんどのXAI技術は"ワンサイズフィット"な説明を生み出しています。
このギャップを埋め、人間中心のXAIに向けた一歩を踏み出すために、ユーザーエキスパートに適した画像分類説明を提供するフレームワークであるI-CEEを紹介します。
既存の研究から情報を得たi-ceeは、トレーニングデータ(例えば、画像)、対応するローカル説明、およびモデル決定の有益なサブセットをユーザに提供することで、画像分類モデルの意思決定を説明する。
しかし、以前の作業とは異なり、I-CEEはサンプル画像のインフォメーション性をユーザーの専門知識に依存するようにモデル化し、異なるユーザに対して異なる例をもたらす。
I-CEEは、ユーザの専門知識に設定した例を合わせることで、モデルの理解とシミュラビリティをより促進できると仮定する。
提案手法を評価するため,複数のデータセット上でシミュレーションと人間の参加者(N = 100)による詳細な実験を行った。
シミュレーションされたユーザによる実験では、I-CEEはベースラインと比較してモデルの判断(シミュラビリティ)を正確に予測する能力を改善し、期待できる予備結果を提供する。
被験者による実験により,本手法はユーザのシミュラビリティの精度を大幅に向上し,人中心型XAIの重要性を強調した。
関連論文リスト
- Interaction as Explanation: A User Interaction-based Method for Explaining Image Classification Models [1.3597551064547502]
コンピュータビジョンでは、説明可能なAI(xAI)手法は「ブラックボックス」問題を緩和しようとする。
従来のxAI手法は、モデル予測に影響を与える入力特徴の可視化に重点を置いている。
本稿では,画像分類モデルのユーザ理解を深めるインタラクションベースのxAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T14:26:00Z) - Explain To Decide: A Human-Centric Review on the Role of Explainable
Artificial Intelligence in AI-assisted Decision Making [1.0878040851638]
機械学習モデルはエラーを起こしやすく、自律的に使用することはできない。
説明可能な人工知能(XAI)は、エンドユーザーによるモデルの理解を支援する。
本稿では,XAIの人間-AI意思決定への影響に関する最近の実証的研究について報告する。
論文 参考訳(メタデータ) (2023-12-11T22:35:21Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Let's Go to the Alien Zoo: Introducing an Experimental Framework to
Study Usability of Counterfactual Explanations for Machine Learning [6.883906273999368]
反事実的説明(CFEs)は、心理的に根拠づけられたアプローチとして、ポストホックな説明を生み出している。
私たちは、エンゲージメントがあり、Webベースでゲームに触発された実験的なフレームワークであるAlien Zooを紹介します。
概念実証として,本手法の有効性と実用性を示す。
論文 参考訳(メタデータ) (2022-05-06T17:57:05Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - A Competence-aware Curriculum for Visual Concepts Learning via Question
Answering [95.35905804211698]
本稿では,視覚概念学習のための質問応答型カリキュラムを提案する。
視覚概念を学習するためのニューラルシンボリックな概念学習者と学習プロセスを導くための多次元項目応答理論(mIRT)モデルを設計する。
CLEVRの実験結果から,コンピテンスを意識したカリキュラムにより,提案手法は最先端のパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2020-07-03T05:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。