論文の概要: Explaining Image Classifiers
- arxiv url: http://arxiv.org/abs/2401.13752v1
- Date: Wed, 24 Jan 2024 19:12:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 16:34:39.956341
- Title: Explaining Image Classifiers
- Title(参考訳): 画像分類器の解説
- Authors: Hana Chockler and Joseph Y. Halpern
- Abstract要約: 我々は Halpern [2016] が提唱した説明の定義がそうでないことを示す。
ハルパーンの定義には必要条件と十分条件がある。
また、基本的には変化がなければ、ハルパーンの定義は他のアプローチで難しい2つの問題に対処できることも示している。
- 参考スコア(独自算出の注目度): 20.949293673446185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We focus on explaining image classifiers, taking the work of Mothilal et al.
[2021] (MMTS) as our point of departure. We observe that, although MMTS claim
to be using the definition of explanation proposed by Halpern [2016], they do
not quite do so. Roughly speaking, Halpern's definition has a necessity clause
and a sufficiency clause. MMTS replace the necessity clause by a requirement
that, as we show, implies it. Halpern's definition also allows agents to
restrict the set of options considered. While these difference may seem minor,
as we show, they can have a nontrivial impact on explanations. We also show
that, essentially without change, Halpern's definition can handle two issues
that have proved difficult for other approaches: explanations of absence (when,
for example, an image classifier for tumors outputs "no tumor") and
explanations of rare events (such as tumors).
- Abstract(参考訳): 画像分類器の説明や、mothilalらの研究に焦点を当てている。
出発点として[2021](MMTS)が挙げられます。
我々は,MMTS が Halpern [2016] によって提案された説明の定義を用いていると主張するが,そうはなっていないことを観察する。
おおまかに言えば、ハルパーンの定義には必要条件と十分条件がある。
MMTSは必要条件を、私たちが示すように、それが意味する要件によって置き換えます。
halpernの定義では、エージェントは考慮されたオプションセットを制限することもできる。
これらの違いは、私たちが示すように小さなように見えるかもしれないが、説明に非自明な影響を与えうる。
また,Halpernの定義は,腫瘍の像分類器が「腫瘍を出力しない」ことや,まれな事象(腫瘍など)の説明という,他のアプローチでは難しい2つの問題に対処できることを示す。
関連論文リスト
- Abductive explanations of classifiers under constraints: Complexity and properties [6.629765271909503]
制約を考慮に入れた3つの新しいタイプの説明を提案する。
それらは、機能空間全体から、あるいはデータセットから生成できる。
我々は、冗長で過剰なAXpを捨てるには、カバレッジが十分であることを示す。
論文 参考訳(メタデータ) (2024-09-18T17:15:39Z) - Modifications of the Miller definition of contrastive (counterfactual)
explanations [2.467139665151498]
ミラーは最近、よく知られたハルパーン・パール(HP)による原因の定義と(矛盾しない)説明に基づく対照的な(非現実的な)説明の定義を提案した。
我々は、ミラーの定義が元のHPの定義にある問題を継承していることを示す。
我々はより堅牢なHPとBornerの定義に基づく2つの改良された変種を提案する。
論文 参考訳(メタデータ) (2023-07-20T12:52:30Z) - A New Class of Explanations for Classifiers with Non-Binary Features [11.358487655918676]
分類器による意思決定の分析において,2種類の説明が文献に注目されている。
非バイナリ機能の存在下では,これらの説明が大幅に改善できることが示唆された。
必要かつ十分な理由が、決定の完全な理由の素因および因果関係であることが示されている。
論文 参考訳(メタデータ) (2023-04-28T11:05:46Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - On Relating 'Why?' and 'Why Not?' Explanations [28.87208020322193]
機械学習(ML)モデルの説明は、しばしば「なぜ」に対処する。
質問だ
最近の研究は「なぜそうでないのか」という説明を調査している。
質問だ
本稿では,「なぜ」の厳密な関係を確立する。
と「なぜないのですか?
説明だ
論文 参考訳(メタデータ) (2020-12-21T01:07:13Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。