論文の概要: Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers
- arxiv url: http://arxiv.org/abs/2208.03961v1
- Date: Mon, 8 Aug 2022 08:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:14:37.954102
- Title: Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers
- Title(参考訳): 自然画像統計に基づくサンプリングによる局所サロゲート記述器の改良
- Authors: Ricardo Kleinlein, Alexander Hepburn, Ra\'ul Santos-Rodr\'iguez and
Fernando Fern\'andez-Mart\'inez
- Abstract要約: 代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
- 参考スコア(独自算出の注目度): 111.31448606885672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many problems in computer vision have recently been tackled using models
whose predictions cannot be easily interpreted, most commonly deep neural
networks. Surrogate explainers are a popular post-hoc interpretability method
to further understand how a model arrives at a particular prediction. By
training a simple, more interpretable model to locally approximate the decision
boundary of a non-interpretable system, we can estimate the relative importance
of the input features on the prediction. Focusing on images, surrogate
explainers, e.g., LIME, generate a local neighbourhood around a query image by
sampling in an interpretable domain. However, these interpretable domains have
traditionally been derived exclusively from the intrinsic features of the query
image, not taking into consideration the manifold of the data the
non-interpretable model has been exposed to in training (or more generally, the
manifold of real images). This leads to suboptimal surrogates trained on
potentially low probability images. We address this limitation by aligning the
local neighbourhood on which the surrogate is trained with the original
training data distribution, even when this distribution is not accessible. We
propose two approaches to do so, namely (1) altering the method for sampling
the local neighbourhood and (2) using perceptual metrics to convey some of the
properties of the distribution of natural images.
- Abstract(参考訳): コンピュータビジョンにおける多くの問題は、最も一般的なディープニューラルネットワークである予測が容易に解釈できないモデルを用いて最近取り組まれている。
surrogate descriptionersは、特定の予測にモデルがどのように到達するかをさらに理解するための、一般的なポストホックな解釈方法である。
非解釈可能なシステムの決定境界を局所的に近似するために、より単純で解釈可能なモデルを訓練することにより、入力特徴の相対的重要性を予測上で推定することができる。
画像に注目すると、サロゲート説明器(例えばlime)は、解釈可能なドメインでサンプリングすることで、クエリ画像周辺のローカルな近傍を生成する。
しかしながら、これらの解釈可能領域は伝統的にクエリ画像の本質的特徴からのみ導出されており、非解釈可能モデルがトレーニング中に露出したデータの多様体(あるいはより一般的には実画像の多様体)を考慮していない。
これにより、潜在的に低い確率像で訓練された準最適代理となる。
この制限に対処するために,サロゲートが元のトレーニングデータ分布でトレーニングされている地域を,この分布がアクセスできない場合でも整列させることで対処する。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
関連論文リスト
- TIDE: Training Locally Interpretable Domain Generalization Models Enables Test-time Correction [14.396966854171273]
単一ソース領域の一般化の問題を考える。
既存の手法は通常、訓練中に様々な領域を合成的にカバーする広範囲な拡張に依存している。
予測において,そのような局所的な概念を活用するためにモデルを補完する手法を提案する。
論文 参考訳(メタデータ) (2024-11-25T08:46:37Z) - Decoding Diffusion: A Scalable Framework for Unsupervised Analysis of Latent Space Biases and Representations Using Natural Language Prompts [68.48103545146127]
本稿では拡散潜在空間の教師なし探索のための新しい枠組みを提案する。
我々は、自然言語のプロンプトと画像キャプションを直接利用して、遅延方向をマップする。
本手法は,拡散モデルに符号化された意味的知識をよりスケーラブルで解釈可能な理解を提供する。
論文 参考訳(メタデータ) (2024-10-25T21:44:51Z) - Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - Exploiting Diffusion Prior for Generalizable Dense Prediction [85.4563592053464]
近年のテキスト・トゥ・イメージ(T2I)拡散モデルでは、既成の高密度予測器では予測できないことがある。
我々は,事前学習したT2Iモデルを用いたパイプラインDMPを,高密度予測タスクの先駆けとして導入する。
限られたドメインのトレーニングデータにもかかわらず、この手法は任意の画像に対して忠実に推定し、既存の最先端のアルゴリズムを超越する。
論文 参考訳(メタデータ) (2023-11-30T18:59:44Z) - Convolutional Cross-View Pose Estimation [9.599356978682108]
クロスビューポーズ推定のための新しいエンドツーエンド手法を提案する。
提案手法は,VIGORおよびKITTIデータセット上で検証される。
オックスフォード・ロボットカーのデータセットでは,エゴ車両の姿勢を時間とともに確実に推定することができる。
論文 参考訳(メタデータ) (2023-03-09T13:52:28Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Improving Explainability of Image Classification in Scenarios with Class
Overlap: Application to COVID-19 and Pneumonia [7.372797734096181]
機械学習モデルによる予測の信頼度は、以前に見つからなかったサンプルに対してモデルがうまく一般化した場合に増大する。
本稿では,クラス重複によるモデルの不確実性を緩和し,画像分類の局所性を向上させる手法を提案する。
我々の手法は、新型コロナウイルスや肺炎などの実世界の重複シナリオにおいて特に有望であり、専門的にラベル付けされたローカライゼーションのためのデータが手軽に利用できない。
論文 参考訳(メタデータ) (2020-08-06T20:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。