論文の概要: Discriminant Distance-Aware Representation on Deterministic Uncertainty
Quantification Methods
- arxiv url: http://arxiv.org/abs/2402.12664v1
- Date: Tue, 20 Feb 2024 02:26:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:20:55.364121
- Title: Discriminant Distance-Aware Representation on Deterministic Uncertainty
Quantification Methods
- Title(参考訳): 決定論的不確実性定量法における識別距離認識表現
- Authors: Jiaxin Zhang, Kamalika Das, Sricharan Kumar
- Abstract要約: 我々は、識別距離認識表現(DDAR)と呼ばれる、決定論的不確実性推定の新しい、効率的な方法を提案する。
DDARは、最適なトレーニング可能なプロトタイプよりも識別層を利用することで、識別可能な距離認識表現を学習することができる。
実験の結果,DDARは柔軟かつアーキテクチャに依存しない手法であり,距離依存性の指標を持つプラグ可能な層として容易に統合できることが判明した。
- 参考スコア(独自算出の注目度): 2.309984352134254
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty estimation is a crucial aspect of deploying dependable deep
learning models in safety-critical systems. In this study, we introduce a novel
and efficient method for deterministic uncertainty estimation called
Discriminant Distance-Awareness Representation (DDAR). Our approach involves
constructing a DNN model that incorporates a set of prototypes in its latent
representations, enabling us to analyze valuable feature information from the
input data. By leveraging a distinction maximization layer over optimal
trainable prototypes, DDAR can learn a discriminant distance-awareness
representation. We demonstrate that DDAR overcomes feature collapse by relaxing
the Lipschitz constraint that hinders the practicality of deterministic
uncertainty methods (DUMs) architectures. Our experiments show that DDAR is a
flexible and architecture-agnostic method that can be easily integrated as a
pluggable layer with distance-sensitive metrics, outperforming state-of-the-art
uncertainty estimation methods on multiple benchmark problems.
- Abstract(参考訳): 不確実性推定は、信頼性の高いディープラーニングモデルを安全クリティカルシステムにデプロイする上で重要な側面である。
本研究では,識別距離認識表現 (DDAR) と呼ばれる決定論的不確実性推定手法を提案する。
提案手法では,プロトタイプの集合を潜在表現に組み込んだDNNモデルを構築し,入力データから有用な特徴情報を解析する。
DDARは、最適トレーニング可能なプロトタイプよりも識別最大化層を利用することで、識別距離認識表現を学習することができる。
DDARは,決定論的不確実性手法(DUM)の実用性を阻害するリプシッツ制約を緩和することにより,機能崩壊を克服することを示した。
実験の結果,DDAR は柔軟かつアーキテクチャに依存しない手法であり,複数のベンチマーク問題に対する精度の高い不確実性推定手法よりも優れた距離依存度を持つプラグ可能な層として容易に統合可能であることがわかった。
関連論文リスト
- Generative Edge Detection with Stable Diffusion [52.870631376660924]
エッジ検出は一般的に、主に識別法によって対処されるピクセルレベルの分類問題と見なされる。
本稿では、事前学習した安定拡散モデルのポテンシャルを十分に活用して、GED(Generative Edge Detector)という新しい手法を提案する。
複数のデータセットに対して広範な実験を行い、競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-04T01:52:23Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - LiDAR: Sensing Linear Probing Performance in Joint Embedding SSL
Architectures [24.40012454562582]
LiDARは、ジョイント埋め込みアーキテクチャにおける表現の質を測定するために設計されたメトリクスである。
提案する基準は,JEアーキテクチャにおける表現の質を評価するための,より堅牢で直感的な方法である。
論文 参考訳(メタデータ) (2023-12-07T02:31:28Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - Reinforcement Learning with a Terminator [80.34572413850186]
我々は, TerMDP のパラメータを学習し, 推定問題の構造を活用し, 状態ワイドな信頼境界を提供する。
我々はこれらを用いて証明可能な効率のよいアルゴリズムを構築し、終端を考慮し、その後悔を抑える。
論文 参考訳(メタデータ) (2022-05-30T18:40:28Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z) - Deep Learning based Uncertainty Decomposition for Real-time Control [9.067368638784355]
本稿では,ディープラーニングを用いたトレーニングデータの欠如を検出する新しい手法を提案する。
合成および実世界のデータセットに対する既存のアプローチに対する利点を示す。
さらに、シミュレーションされたクアッドコプターにオンラインデータ効率制御を展開させる上で、この不確実性推定の実用性を実証する。
論文 参考訳(メタデータ) (2020-10-06T10:46:27Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - NADS: Neural Architecture Distribution Search for Uncertainty Awareness [79.18710225716791]
機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:39:07Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。