論文の概要: Explaining an image classifier with a generative model conditioned by uncertainty
- arxiv url: http://arxiv.org/abs/2410.13871v2
- Date: Tue, 05 Nov 2024 09:07:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 14:57:01.535780
- Title: Explaining an image classifier with a generative model conditioned by uncertainty
- Title(参考訳): 不確実性を考慮した生成モデルによる画像分類器の記述
- Authors: Adrien LeCoz, Stéphane Herbin, Faouzi Adjed,
- Abstract要約: 本稿では,画像分類器の不確実性により生成モデルを条件付け,その振る舞いを解析・説明するために提案する。
合成データに関する予備的な実験と、MNISTデータセットの破損したバージョンは、このアイデアを示している。
- 参考スコア(独自算出の注目度): 5.018156030818883
- License:
- Abstract: We propose to condition a generative model by a given image classifier uncertainty in order to analyze and explain its behavior. Preliminary experiments on synthetic data and a corrupted version of MNIST dataset illustrate the idea.
- Abstract(参考訳): 本稿では,画像分類器の不確実性により生成モデルを条件付け,その振る舞いを解析・説明するために提案する。
合成データに関する予備的な実験と、MNISTデータセットの破損したバージョンは、このアイデアを示している。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Scene Uncertainty and the Wellington Posterior of Deterministic Image
Classifiers [68.9065881270224]
Wellington Posteriorは、同じシーンで生成された可能性のあるデータに応答して得られるであろう結果の分布である。
We we explore the use of data augmentation, dropout, ensembling, single-view reconstruction and model linearization to compute a Wellington Posterior。
他にも、生成逆数ネットワーク、ニューラルレイディアンスフィールド、条件付き事前ネットワークなどの条件付き生成モデルの使用がある。
論文 参考訳(メタデータ) (2021-06-25T20:10:00Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Conditional Generative Models for Counterfactual Explanations [0.0]
本稿では,分散的非分布的モデル記述を生成する汎用フレームワークを提案する。
このフレームワークは、使用される生成モデルの種類や基礎となる予測モデルのタスクに関して柔軟である。
論文 参考訳(メタデータ) (2021-01-25T14:31:13Z) - Learning from missing data with the Latent Block Model [0.5735035463793007]
本研究では、ランダムなデータに欠かせないデータを活用することを目的としたLatent Block Modelに基づくクラスタリングモデルを提案する。
予測最大化アルゴリズムを導出して推論を行い、モデル選択基準を示す。
論文 参考訳(メタデータ) (2020-10-23T08:11:43Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Capsule Networks -- A Probabilistic Perspective [42.187785678596384]
カプセル」モデルはオブジェクトのポーズを明示的に表現し、オブジェクトのポーズと構成部品のリニアな関係を強制しようとする。
本稿では,このようなカプセル仮定を符号化した確率的生成モデルについて述べる。
統合された目的の応用性を実験的に実証し、我々のモデルにおける償却推論に固有の問題を解決するためのテスト時間最適化の活用を実証する。
論文 参考訳(メタデータ) (2020-04-07T17:26:11Z) - Model-based occlusion disentanglement for image-to-image translation [26.36897056828784]
教師なしモデルに基づく学習は、シーンとオクルージョンを混乱させます。
複数のデータセット上で、質的かつ定量的に最先端の翻訳を生成する。
論文 参考訳(メタデータ) (2020-04-02T15:24:41Z) - Understanding the Intrinsic Robustness of Image Distributions using
Conditional Generative Models [87.00072607024026]
本稿では,2つの画像ベンチマークの内在的堅牢性について,$ell$摂動下で検討する。
我々は、我々の理論によって示唆されるロバスト性限界と現在の最先端ロバストモデルによって達成される対角的ロバスト性の間に大きなギャップが存在することを示す。
論文 参考訳(メタデータ) (2020-03-01T01:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。