論文の概要: Global explainability in aligned image modalities
- arxiv url: http://arxiv.org/abs/2112.09591v1
- Date: Fri, 17 Dec 2021 16:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 14:07:36.506231
- Title: Global explainability in aligned image modalities
- Title(参考訳): 配向画像のグローバルな説明可能性
- Authors: Justin Engelmann, Amos Storkey, Miguel O. Bernabeu
- Abstract要約: 本研究では,各画素位置が画像オブジェクト上の類似相対位置を表すように,自然に整列する画像モダリティに着目した。
本稿では,ラベルやグローバルな説明を得るための簡単な方法として,画像に関する説明の画素単位での集約を提案する。
そして、これらの手法を、自然に整列した超広視野網膜画像に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) models are very effective on many computer vision problems
and increasingly used in critical applications. They are also inherently black
box. A number of methods exist to generate image-wise explanations that allow
practitioners to understand and verify model predictions for a given image.
Beyond that, it would be desirable to validate that a DL model
\textit{generally} works in a sensible way, i.e. consistent with domain
knowledge and not relying on undesirable data artefacts. For this purpose, the
model needs to be explained globally. In this work, we focus on image
modalities that are naturally aligned such that each pixel position represents
a similar relative position on the imaged object, as is common in medical
imaging. We propose the pixel-wise aggregation of image-wise explanations as a
simple method to obtain label-wise and overall global explanations. These can
then be used for model validation, knowledge discovery, and as an efficient way
to communicate qualitative conclusions drawn from inspecting image-wise
explanations. We further propose Progressive Erasing Plus Progressive
Restoration (PEPPR) as a method to quantitatively validate that these global
explanations are faithful to how the model makes its predictions. We then apply
these methods to ultra-widefield retinal images, a naturally aligned modality.
We find that the global explanations are consistent with domain knowledge and
faithfully reflect the model's workings.
- Abstract(参考訳): ディープラーニング(DL)モデルは、多くのコンピュータビジョン問題に対して非常に効果的であり、批判的なアプリケーションでますます使われている。
本来はブラックボックスである。
実践者が与えられた画像のモデル予測を理解し検証できるように、画像に関する説明を生成する方法がいくつか存在する。
さらに、DLモデル \textit{ Generally} が意味のある方法で機能していること、すなわちドメイン知識に一貫性があり、望ましくないデータアーチファクトに依存していないことを検証することが望ましい。
この目的のためには、モデルをグローバルに説明する必要がある。
本研究では, 医用画像でよく見られるように, 各画素位置が被写体上の類似相対位置を表すように, 自然に整列した画像モダリティに着目した。
本稿では,ラベルやグローバルな説明を得るための簡単な方法として,画像記述の画素単位での集約を提案する。
これらは、モデル検証、知識発見、画像による説明から得られた質的結論を伝える効率的な方法として使用できる。
さらに,これらのグローバル説明がモデルによる予測に忠実であることを定量的に検証するための方法として,プログレッシブ消去プラスプログレッシブ修復(peppr)を提案する。
次に、これらの手法を超広視野網膜画像に適用する。
グローバルな説明はドメインの知識と一致しており、モデルの動作を忠実に反映しています。
関連論文リスト
- Enhancing Counterfactual Image Generation Using Mahalanobis Distance with Distribution Preferences in Feature Space [7.00851481261778]
人工知能(AI)の領域では、説明可能な人工知能(XAI)の重要性がますます認識されている。
1つの注目すべきシングルインスタンスXAIアプローチは、モデルの決定を理解するのに役立つ、反ファクトな説明である。
本稿では,ブラックボックスモデルの特徴空間における特徴量の重要性を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:26:53Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Foiling Explanations in Deep Neural Networks [0.0]
本稿では,画像ベースDNNにおける説明手法の問題点を明らかにする。
進化戦略を用いて、説明を任意に操作する方法を実証する。
我々の新しいアルゴリズムは、人間の目では認識できない方法で画像の操作に成功している。
論文 参考訳(メタデータ) (2022-11-27T15:29:39Z) - Combining Counterfactuals With Shapley Values To Explain Image Models [13.671174461441304]
我々は、反事実を生成し、Shapley値を推定するパイプラインを開発する。
我々は強い公理的保証を持つ対照的で解釈可能な説明を得る。
論文 参考訳(メタデータ) (2022-06-14T18:23:58Z) - LIMEcraft: Handcrafted superpixel selection and inspection for Visual
eXplanations [3.0036519884678894]
LIMEcraftは、ユーザがインタラクティブにセマンティックに一貫性のある領域を選択し、イメージインスタンスの予測を徹底的に検証することを可能にする。
本手法は,モデルバイアスを示す画像のモデルフェアネスを検査することにより,モデルの安全性を向上させる。
論文 参考訳(メタデータ) (2021-11-15T21:40:34Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。