論文の概要: STEEX: Steering Counterfactual Explanations with Semantics
- arxiv url: http://arxiv.org/abs/2111.09094v1
- Date: Wed, 17 Nov 2021 13:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:07:22.349821
- Title: STEEX: Steering Counterfactual Explanations with Semantics
- Title(参考訳): STEEX: セマンティックスによる非現実的説明
- Authors: Paul Jacob, \'Eloi Zablocki, H\'edi Ben-Younes, Micka\"el Chen,
Patrick P\'erez, Matthieu Cord
- Abstract要約: ディープラーニングモデルは、安全クリティカルなアプリケーションでますます使われています。
低解像度の顔画像のような単純な画像では、視覚的対実的な説明が最近提案されている。
本稿では, 可塑性, スパースな修正を生み出す, 新たな生成的対実的説明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 28.771471624014065
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As deep learning models are increasingly used in safety-critical
applications, explainability and trustworthiness become major concerns. For
simple images, such as low-resolution face portraits, synthesizing visual
counterfactual explanations has recently been proposed as a way to uncover the
decision mechanisms of a trained classification model. In this work, we address
the problem of producing counterfactual explanations for high-quality images
and complex scenes. Leveraging recent semantic-to-image models, we propose a
new generative counterfactual explanation framework that produces plausible and
sparse modifications which preserve the overall scene structure. Furthermore,
we introduce the concept of "region-targeted counterfactual explanations", and
a corresponding framework, where users can guide the generation of
counterfactuals by specifying a set of semantic regions of the query image the
explanation must be about. Extensive experiments are conducted on challenging
datasets including high-quality portraits (CelebAMask-HQ) and driving scenes
(BDD100k).
- Abstract(参考訳): 深層学習モデルが安全クリティカルなアプリケーションでますます使われるようになるにつれ、説明可能性や信頼性が大きな関心事となっている。
低解像度の顔画像のような単純な画像に対しては、最近、訓練された分類モデルの決定機構を明らかにする手段として、視覚的対実的説明の合成が提案されている。
本研究では,高品質な画像や複雑なシーンの反実的説明を生成する問題に対処する。
近年のセマンティック・ツー・イメージモデルを利用して,シーン全体の構造を保存できる,妥当でスパースな修正を生成する新しい生成的反事実説明フレームワークを提案する。
さらに,「地域目標の対実的説明」の概念とそれに対応するフレームワークを導入し,ユーザが説明すべきクエリ画像のセマンティック領域のセットを指定することで,対実的説明の生成を誘導する手法を提案する。
高品質なポートレート(celebamask-hq)や運転シーン(bdd100k)といった、挑戦的なデータセットに関する広範な実験が行われている。
関連論文リスト
- DaLPSR: Leverage Degradation-Aligned Language Prompt for Real-World Image Super-Resolution [19.33582308829547]
本稿では, 精度, 精細度, 高忠実度画像復元のために, 劣化対応言語プロンプトを活用することを提案する。
提案手法は,新しい最先端の知覚品質レベルを実現する。
論文 参考訳(メタデータ) (2024-06-24T09:30:36Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - RTQ: Rethinking Video-language Understanding Based on Image-text Model [55.278942477715084]
ビデオ言語理解は、非常に複雑なセマンティックな詳細を含んでいるため、ユニークな課題を提示する。
本稿では,これらの課題を同時に解決するRTQという新しいフレームワークを提案する。
本モデルは,ビデオ言語による事前学習がなくても,優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-01T04:51:01Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - Combining Counterfactuals With Shapley Values To Explain Image Models [13.671174461441304]
我々は、反事実を生成し、Shapley値を推定するパイプラインを開発する。
我々は強い公理的保証を持つ対照的で解釈可能な説明を得る。
論文 参考訳(メタデータ) (2022-06-14T18:23:58Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。