論文の概要: STEEX: Steering Counterfactual Explanations with Semantics
- arxiv url: http://arxiv.org/abs/2111.09094v1
- Date: Wed, 17 Nov 2021 13:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:07:22.349821
- Title: STEEX: Steering Counterfactual Explanations with Semantics
- Title(参考訳): STEEX: セマンティックスによる非現実的説明
- Authors: Paul Jacob, \'Eloi Zablocki, H\'edi Ben-Younes, Micka\"el Chen,
Patrick P\'erez, Matthieu Cord
- Abstract要約: ディープラーニングモデルは、安全クリティカルなアプリケーションでますます使われています。
低解像度の顔画像のような単純な画像では、視覚的対実的な説明が最近提案されている。
本稿では, 可塑性, スパースな修正を生み出す, 新たな生成的対実的説明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 28.771471624014065
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As deep learning models are increasingly used in safety-critical
applications, explainability and trustworthiness become major concerns. For
simple images, such as low-resolution face portraits, synthesizing visual
counterfactual explanations has recently been proposed as a way to uncover the
decision mechanisms of a trained classification model. In this work, we address
the problem of producing counterfactual explanations for high-quality images
and complex scenes. Leveraging recent semantic-to-image models, we propose a
new generative counterfactual explanation framework that produces plausible and
sparse modifications which preserve the overall scene structure. Furthermore,
we introduce the concept of "region-targeted counterfactual explanations", and
a corresponding framework, where users can guide the generation of
counterfactuals by specifying a set of semantic regions of the query image the
explanation must be about. Extensive experiments are conducted on challenging
datasets including high-quality portraits (CelebAMask-HQ) and driving scenes
(BDD100k).
- Abstract(参考訳): 深層学習モデルが安全クリティカルなアプリケーションでますます使われるようになるにつれ、説明可能性や信頼性が大きな関心事となっている。
低解像度の顔画像のような単純な画像に対しては、最近、訓練された分類モデルの決定機構を明らかにする手段として、視覚的対実的説明の合成が提案されている。
本研究では,高品質な画像や複雑なシーンの反実的説明を生成する問題に対処する。
近年のセマンティック・ツー・イメージモデルを利用して,シーン全体の構造を保存できる,妥当でスパースな修正を生成する新しい生成的反事実説明フレームワークを提案する。
さらに,「地域目標の対実的説明」の概念とそれに対応するフレームワークを導入し,ユーザが説明すべきクエリ画像のセマンティック領域のセットを指定することで,対実的説明の生成を誘導する手法を提案する。
高品質なポートレート(celebamask-hq)や運転シーン(bdd100k)といった、挑戦的なデータセットに関する広範な実験が行われている。
関連論文リスト
- Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [70.58988592832684]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - RTQ: Rethinking Video-language Understanding Based on Image-text Model [55.278942477715084]
ビデオ言語理解は、非常に複雑なセマンティックな詳細を含んでいるため、ユニークな課題を提示する。
本稿では,これらの課題を同時に解決するRTQという新しいフレームワークを提案する。
本モデルは,ビデオ言語による事前学習がなくても,優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-01T04:51:01Z) - CoSeR: Bridging Image and Language for Cognitive Super-Resolution [74.24752388179992]
本稿では,低解像度画像の理解能力を備えたSRモデルを実現するCoSeR(Cognitive Super-Resolution)フレームワークを提案する。
画像の外観と言語理解を組み合わせることで、認知的な埋め込みを生成する。
画像の忠実度をさらに向上させるため、「オール・イン・アテンション」と呼ばれる新しい条件注入方式を提案する。
論文 参考訳(メタデータ) (2023-11-27T16:33:29Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - A Fine-Grained Image Description Generation Method Based on Joint
Objectives [7.565093400979752]
本稿では, 共同目的物に基づく微細な画像記述生成モデルを提案する。
我々は、記述繰り返しと省略を扱う際のモデルの性能をより直感的に評価するために、新しいオブジェクトベースの評価指標を導入する。
実験の結果,提案手法はCIDErの評価基準を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-09-02T03:22:39Z) - Improving Few-shot Image Generation by Structural Discrimination and
Textural Modulation [10.389698647141296]
画像生成の目的は、このカテゴリからいくつかの画像が与えられた場合、あるカテゴリに対して可塑性で多様な画像を生成することである。
既存のアプローチでは、異なる画像をグローバルに補間するか、事前に定義された係数で局所表現を融合する。
本稿では,内部局所表現に外部意味信号を注入する新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2023-08-30T16:10:21Z) - OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - Combining Counterfactuals With Shapley Values To Explain Image Models [13.671174461441304]
我々は、反事実を生成し、Shapley値を推定するパイプラインを開発する。
我々は強い公理的保証を持つ対照的で解釈可能な説明を得る。
論文 参考訳(メタデータ) (2022-06-14T18:23:58Z) - Kernel Agnostic Real-world Image Super-resolution [82.3963188538938]
実世界のイメージSR問題に対処するための新しいカーネル非依存SRフレームワークを紹介します。
提案手法では,劣化カーネルとノイズは明示的に指定するのではなく適応的にモデル化される。
実験は、複数の実世界のデータセットにおける提案フレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2021-04-19T01:51:21Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。