論文の概要: Cross-modal Counterfactual Explanations: Uncovering Decision Factors and Dataset Biases in Subjective Classification
- arxiv url: http://arxiv.org/abs/2512.18864v1
- Date: Sun, 21 Dec 2025 19:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.534781
- Title: Cross-modal Counterfactual Explanations: Uncovering Decision Factors and Dataset Biases in Subjective Classification
- Title(参考訳): クロスモーダルな対実的説明:主観的分類における決定要因とデータセットバイアスを明らかにする
- Authors: Alina Elena Baia, Andrea Cavallaro,
- Abstract要約: 概念駆動の反事実は、意味的変化を通じてモデル予測を変更することによって分類器の決定を説明する。
本稿では,自然言語で表現された対実的シナリオを生成するために,クロスモーダルな分解性とイメージ固有の概念を活用する新しいアプローチを提案する。
本稿では,Decompose and Explain(DeX)と呼ばれる解釈可能性フレームワークを,画像プライバシ決定の困難な領域に適用する。
- 参考スコア(独自算出の注目度): 19.95559346844761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept-driven counterfactuals explain decisions of classifiers by altering the model predictions through semantic changes. In this paper, we present a novel approach that leverages cross-modal decompositionality and image-specific concepts to create counterfactual scenarios expressed in natural language. We apply the proposed interpretability framework, termed Decompose and Explain (DeX), to the challenging domain of image privacy decisions, which are contextual and subjective. This application enables the quantification of the differential contributions of key scene elements to the model prediction. We identify relevant decision factors via a multi-criterion selection mechanism that considers both image similarity for minimal perturbations and decision confidence to prioritize impactful changes. This approach evaluates and compares diverse explanations, and assesses the interdependency and mutual influence among explanatory properties. By leveraging image-specific concepts, DeX generates image-grounded, sparse explanations, yielding significant improvements over the state of the art. Importantly, DeX operates as a training-free framework, offering high flexibility. Results show that DeX not only uncovers the principal contributing factors influencing subjective decisions, but also identifies underlying dataset biases allowing for targeted mitigation strategies to improve fairness.
- Abstract(参考訳): 概念駆動の反事実は、意味的変化を通じてモデル予測を変更することによって分類器の決定を説明する。
本稿では, クロスモーダルな分解性と画像固有の概念を利用して, 自然言語で表現された対実的シナリオを生成する手法を提案する。
本稿では,Decompose and Explain(DeX)と呼ばれる解釈可能性フレームワークを,文脈的かつ主観的な画像プライバシー決定の挑戦領域に適用する。
この応用は、モデル予測に対するキーシーン要素の差分寄与の定量化を可能にする。
我々は、最小の摂動に対する画像類似性と、影響のある変化を優先順位付けするための決定信頼度の両方を考慮した、複数基準選択機構を介して、関連する決定要因を同定する。
このアプローチは多様な説明を評価・比較し、説明的特性間の相互依存性と相互影響を評価する。
イメージ固有の概念を活用することで、DeXは画像のグラウンド化とスパースな説明を生成し、最先端技術よりも大幅に改善されている。
重要な点として、DeXはトレーニング不要のフレームワークとして機能し、高い柔軟性を提供する。
結果から,DeXは主観的意思決定に影響を及ぼす主要な要因を明らかにするだけでなく,目標の緩和戦略が公正性を改善するための基盤となるデータセットバイアスも明らかにした。
関連論文リスト
- From Visual Explanations to Counterfactual Explanations with Latent Diffusion [11.433402357922414]
本稿では,近年の顕著な研究における2つの課題に対処するための新しいアプローチを提案する。
まず、ターゲットクラスの"概念"と元のクラスを区別するために、どの特定の反事実的特徴が重要かを決定する。
第二に、非ロバスト分類器に対して、対向的に堅牢なモデルのサポートに頼ることなく、重要な説明を提供する。
論文 参考訳(メタデータ) (2025-04-12T13:04:00Z) - A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Disentanglement of Latent Representations via Causal Interventions [11.238098505498165]
因果力学に着想を得た新しい解離法を提案する。
我々のモデルは、量子化されたベクトルを因果変数とみなし、因果グラフでそれらをリンクする。
グラフの因果的介入を行い、画像の変動のユニークな要因に影響を与える原子遷移を生成する。
論文 参考訳(メタデータ) (2023-02-02T04:37:29Z) - Comparing the Decision-Making Mechanisms by Transformers and CNNs via Explanation Methods [4.661764541283174]
本研究では、データセット全体に基づく深い説明アルゴリズムを適用して、異なる視覚認識バックボーンの意思決定について検討する。
TransformersとConvNeXtは、画像の複数の部分を共同で検討することで、より構成的であることが分かりました。
特徴利用の類似性に基づいて、異なるモデルのランドスケープをプロットする。
論文 参考訳(メタデータ) (2022-12-13T19:38:13Z) - From Cognitive to Computational Modeling: Text-based Risky
Decision-Making Guided by Fuzzy Trace Theory [5.154015755506085]
ファジィトレース理論(FTT)は、ジストを組み込むことで人間の意思決定を説明する強力なパラダイムである。
本稿では,テキストに基づく意思決定におけるセマンティクスと感情の影響を組み合わせた計算フレームワークを提案する。
特にカテゴリー2-を導入し、カテゴリー的ジストとカテゴリー的感情を学習し、グループや個人におけるリスクのある意思決定を予測するために、我々の計算モデルを最適化する方法を実証する。
論文 参考訳(メタデータ) (2022-05-15T02:25:28Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Inverse Active Sensing: Modeling and Understanding Timely
Decision-Making [111.07204912245841]
我々は,内因性,文脈依存型時間圧下でのエビデンスに基づく意思決定の一般的な設定のための枠組みを開発する。
意思決定戦略において、サプライズ、サスペンス、最適性の直感的な概念をモデル化する方法を実証する。
論文 参考訳(メタデータ) (2020-06-25T02:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。