論文の概要: OCTET: Object-aware Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2211.12380v1
- Date: Tue, 22 Nov 2022 16:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:41:39.822503
- Title: OCTET: Object-aware Counterfactual Explanations
- Title(参考訳): OCTET: オブジェクト指向の対実的説明
- Authors: Mehdi Zemni, Micka\"el Chen, \'Eloi Zablocki, H\'edi Ben-Younes,
Patrick P\'erez, Matthieu Cord
- Abstract要約: 対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
- 参考スコア(独自算出の注目度): 29.532969342297086
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nowadays, deep vision models are being widely deployed in safety-critical
applications, e.g., autonomous driving, and explainability of such models is
becoming a pressing concern. Among explanation methods, counterfactual
explanations aim to find minimal and interpretable changes to the input image
that would also change the output of the model to be explained. Such
explanations point end-users at the main factors that impact the decision of
the model. However, previous methods struggle to explain decision models
trained on images with many objects, e.g., urban scenes, which are more
difficult to work with but also arguably more critical to explain. In this
work, we propose to tackle this issue with an object-centric framework for
counterfactual explanation generation. Our method, inspired by recent
generative modeling works, encodes the query image into a latent space that is
structured in a way to ease object-level manipulations. Doing so, it provides
the end-user with control over which search directions (e.g., spatial
displacement of objects, style modification, etc.) are to be explored during
the counterfactual generation. We conduct a set of experiments on
counterfactual explanation benchmarks for driving scenes, and we show that our
method can be adapted beyond classification, e.g., to explain semantic
segmentation models. To complete our analysis, we design and run a user study
that measures the usefulness of counterfactual explanations in understanding a
decision model. Code is available at https://github.com/valeoai/OCTET.
- Abstract(参考訳): 近年、ディープビジョンモデルは、例えば自律運転のような安全クリティカルなアプリケーションに広くデプロイされ、そのようなモデルの説明可能性への懸念が高まっている。
説明方法のうち、反事実説明は、説明すべきモデルの出力を変更する入力画像の最小かつ解釈可能な変更を見つけることを目的としている。
このような説明は、エンドユーザーがモデルの決定に影響を及ぼす主要な要因を指し示している。
しかし、従来の手法では、例えば都市シーンのような、多くのオブジェクトで訓練された画像上の決定モデルを説明するのに苦労していた。
本稿では,反事実的説明生成のためのオブジェクト指向フレームワークを用いてこの問題に取り組むことを提案する。
近年のジェネレーティブ・モデリングに触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリ画像を潜在空間に符号化する。
これにより、エンドユーザーに対して、探索方向(例えば、オブジェクトの空間的変位、スタイル変更など)が、デファクトジェネレーション中に探索される制御を提供する。
運転シーンの非現実的説明ベンチマークに関する一連の実験を行い,提案手法が,セマンティクスのセグメンテーションモデルなど,分類以外にも適用可能であることを示す。
分析を完了させるために,意思決定モデル理解における反事実的説明の有用性を計測するユーザスタディを設計・実施する。
コードはhttps://github.com/valeoai/OCTET.comで入手できる。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - STEEX: Steering Counterfactual Explanations with Semantics [28.771471624014065]
ディープラーニングモデルは、安全クリティカルなアプリケーションでますます使われています。
低解像度の顔画像のような単純な画像では、視覚的対実的な説明が最近提案されている。
本稿では, 可塑性, スパースな修正を生み出す, 新たな生成的対実的説明フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-17T13:20:29Z) - LIMEcraft: Handcrafted superpixel selection and inspection for Visual
eXplanations [3.0036519884678894]
LIMEcraftは、ユーザがインタラクティブにセマンティックに一貫性のある領域を選択し、イメージインスタンスの予測を徹底的に検証することを可能にする。
本手法は,モデルバイアスを示す画像のモデルフェアネスを検査することにより,モデルの安全性を向上させる。
論文 参考訳(メタデータ) (2021-11-15T21:40:34Z) - Counterfactual Explanations for Models of Code [11.678590247866534]
機械学習(ML)モデルは、多くのソフトウェアエンジニアリングタスクにおいて、ますます一般的な役割を担っている。
開発者が、なぜモデルが一定の結論に達したのか、モデルの予測にどのように対応すべきかを理解するのは難しいかもしれません。
本稿では,ソースコードのモデルに対する反実的説明について考察する。
論文 参考訳(メタデータ) (2021-11-10T14:44:19Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Right for the Right Concept: Revising Neuro-Symbolic Concepts by
Interacting with their Explanations [24.327862278556445]
本稿では,意味レベルでのモデル修正を可能にするニューロ・シンボリックシーン表現を提案する。
CLEVR-Hansの実験の結果は、私たちのセマンティックな説明が共同創設者を識別できることを示しています。
論文 参考訳(メタデータ) (2020-11-25T16:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。