論文の概要: REPEAT: Improving Uncertainty Estimation in Representation Learning Explainability
- arxiv url: http://arxiv.org/abs/2412.08513v1
- Date: Wed, 11 Dec 2024 16:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:39.912219
- Title: REPEAT: Improving Uncertainty Estimation in Representation Learning Explainability
- Title(参考訳): REPEAT:Representation Learning Explainabilityにおける不確実性推定の改善
- Authors: Kristoffer K. Wickstrøm, Thea Brüsch, Michael C. Kampffmeyer, Robert Jenssen,
- Abstract要約: 不確実性は、ディープラーニングモデルの信頼できる説明を提供するために不可欠である。
現在のR-XAI法は、重要点の変動を測定することによって不確実性を提供する。
本稿では,ピクセルが確実に重要であるか否かというキー問題に対処するREPEATと呼ばれる新しいR-XAI手法を提案する。
- 参考スコア(独自算出の注目度): 12.277579759214241
- License:
- Abstract: Incorporating uncertainty is crucial to provide trustworthy explanations of deep learning models. Recent works have demonstrated how uncertainty modeling can be particularly important in the unsupervised field of representation learning explainable artificial intelligence (R-XAI). Current R-XAI methods provide uncertainty by measuring variability in the importance score. However, they fail to provide meaningful estimates of whether a pixel is certainly important or not. In this work, we propose a new R-XAI method called REPEAT that addresses the key question of whether or not a pixel is \textit{certainly} important. REPEAT leverages the stochasticity of current R-XAI methods to produce multiple estimates of importance, thus considering each pixel in an image as a Bernoulli random variable that is either important or unimportant. From these Bernoulli random variables we can directly estimate the importance of a pixel and its associated certainty, thus enabling users to determine certainty in pixel importance. Our extensive evaluation shows that REPEAT gives certainty estimates that are more intuitive, better at detecting out-of-distribution data, and more concise.
- Abstract(参考訳): 不確実性を組み込むことは、ディープラーニングモデルの信頼できる説明を提供するために不可欠である。
最近の研究は、表現学習説明可能な人工知能(R-XAI)の教師なし分野において、不確実性モデリングが特に重要であることを実証している。
現在のR-XAI法は、重要点の変動を測定することによって不確実性を提供する。
しかし、ピクセルが確実に重要であるか否かの有意義な推定は得られない。
本稿では,ピクセルがtextit{certainly} であるかどうかという重要な問題に対処する,REPEAT と呼ばれる新しい R-XAI 手法を提案する。
REPEATは、現在のR-XAI法の確率性を利用して、重要度を複数の推定し、画像中の各ピクセルを重要または重要でないベルヌーイ確率変数として考慮する。
これらのベルヌーイ確率変数から、ピクセルの重要性とその関連した確実性を直接推定できるので、ユーザーはピクセルの重要性の確実性を決定することができる。
以上の結果から,REPEATはより直感的で,分布外データの検出に優れ,より簡潔な推定値を提供することが示された。
関連論文リスト
- Uncertainty Quantification in Stereo Matching [61.73532883992135]
ステレオマッチングのための新しいフレームワークとその不確実性定量化を提案する。
我々は、不確実性と推定データの尺度としてベイズリスクを採用し、個別に不確実性をモデル化する。
我々は,不確実性の少ないデータポイントを選択することにより,予測精度を向上させるために不確実性手法を適用した。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Uncertainty Quantification for Bird's Eye View Semantic Segmentation: Methods and Benchmarks [10.193504550494486]
本稿では,BEVセグメンテーションにおける予測不確実性定量化のためのベンチマークを提案する。
誤分類および非分布画素の識別における予測不確実性の有効性と校正に焦点が当てられている。
本研究では,不均衡なデータに対する不確実性-局所-クロス-エントロピー損失を提案し,セグメンテーションの品質とキャリブレーションを継続的に改善する。
論文 参考訳(メタデータ) (2024-05-31T16:32:46Z) - On the Quantification of Image Reconstruction Uncertainty without
Training Data [5.057039869893053]
本稿では,深部生成モデルを用いて近似後部分布を学習する深部変分フレームワークを提案する。
フローベースモデルを用いてターゲット後部をパラメータ化し,KL(Kullback-Leibler)の発散を最小限に抑え,正確な不確実性推定を実現する。
提案手法は信頼性と高品質な画像再構成を実現し,信頼性の高い不確実性を推定する。
論文 参考訳(メタデータ) (2023-11-16T07:46:47Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Principal Uncertainty Quantification with Spatial Correlation for Image
Restoration Problems [35.46703074728443]
PUQ -- プリンシパル不確実性定量化 -- は、新しい定義であり、不確実性領域の対応する分析である。
経験的後部分布の主成分の周囲の不確実性区間を導出し,あいまいさ領域を形成する。
本手法は, カラー化, 超高分解能, 塗布実験により検証した。
論文 参考訳(メタデータ) (2023-05-17T11:08:13Z) - Improving Training and Inference of Face Recognition Models via Random
Temperature Scaling [45.33976405587231]
ランダム温度スケーリング(RTS)は,信頼度の高い顔認識アルゴリズムを学習するために提案される。
RTSは、顔認識とアウト・オブ・ディストリビューション検出タスクの両方で最高のパフォーマンスを達成することができる。
提案されたモジュールは軽量であり、モデルに無視できるコストしか加えない。
論文 参考訳(メタデータ) (2022-12-02T08:00:03Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Image-to-Image Regression with Distribution-Free Uncertainty
Quantification and Applications in Imaging [88.20869695803631]
真値を含むことが保証される各画素の周囲の不確実な間隔を導出する方法を示す。
画像から画像への回帰を3つのタスクで評価する。
論文 参考訳(メタデータ) (2022-02-10T18:59:56Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - RAIN: A Simple Approach for Robust and Accurate Image Classification
Networks [156.09526491791772]
既存の敵防衛手法の大部分は、予測精度を犠牲にして堅牢性を実現することが示されている。
本稿では,ロバストおよび高精度画像分類N(RAIN)と呼ぶ新しい前処理フレームワークを提案する。
RAINは入力に対してランダム化を適用して、モデルフォワード予測パスと後方勾配パスの関係を壊し、モデルロバスト性を改善する。
STL10 と ImageNet のデータセットを用いて、様々な種類の敵攻撃に対する RAIN の有効性を検証する。
論文 参考訳(メタデータ) (2020-04-24T02:03:56Z) - Data Uncertainty Learning in Face Recognition [23.74716810099911]
不確実性はノイズの多い画像にとって重要であるが、顔認識のために探索されることはめったにない。
不確実性が特徴学習にどのような影響を及ぼすかは不明である。
この研究は、顔認識にデータ不確実性学習を適用します。
論文 参考訳(メタデータ) (2020-03-25T11:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。