論文の概要: Similarity-Distance-Magnitude Universal Verification
- arxiv url: http://arxiv.org/abs/2502.20167v2
- Date: Wed, 12 Mar 2025 20:21:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 19:21:19.121168
- Title: Similarity-Distance-Magnitude Universal Verification
- Title(参考訳): 類似性-距離-マグニチュードユニバーサル検証
- Authors: Allen Schmaltz,
- Abstract要約: 我々は不確実性を考慮した検証と解釈可能性を備えたsdmネットワークを本質的な特性として作成する。
これらの結果を実装したオープンソースソフトウェアを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We address the neural network robustness problem by adding Similarity (i.e., correctly predicted depth-matches into training)-awareness and Distance-to-training-distribution-awareness to the existing output Magnitude (i.e., decision-boundary)-awareness of the softmax function. The resulting sdm activation function provides strong signals of the relative epistemic (reducible) predictive uncertainty. We use this novel behavior to further address the complementary HCI problem of mapping the output to human-interpretable summary statistics over relevant partitions of a held-out calibration set. Estimates of prediction-conditional uncertainty are obtained via a parsimonious learned transform over the class-conditional empirical CDFs of the output of a final-layer sdm activation function. For decision-making and as an intrinsic model check, estimates of class-conditional accuracy are obtained by further partitioning the high-probability regions of this calibrated output into class-conditional, region-specific CDFs. The uncertainty estimates from sdm calibration are remarkably robust to test-time distribution shifts and out-of-distribution inputs; incorporate awareness of the effective sample size; provide estimates of uncertainty from the learning and data splitting processes; and are well-suited for selective classification and conditional branching for additional test-time compute based on the predictive uncertainty, as for selective LLM generation, routing, and composition over multiple models and retrieval. Finally, we construct sdm networks, LLMs with uncertainty-aware verification and interpretability-by-exemplar as intrinsic properties. We provide open-source software implementing these results.
- Abstract(参考訳): 我々は、既存の出力Magnitude(意思決定境界)-Awareness of the Softmax関数にSimisity(トレーニングに正しく予測された深さマッチング)とDistance-to-Ting-Distribution-Awarenessを付加することで、ニューラルネットワークのロバストネス問題に対処する。
結果として生じるsdm活性化関数は、相対的なてんかん(再生可能な)予測の不確実性の強いシグナルを与える。
我々は、この新しい振る舞いを用いて、ホールドアウト校正セットの関連する分割に関して、出力を人間解釈可能な要約統計にマッピングする相補的なHCI問題に対処する。
最終層sdm活性化関数の出力のクラス条件経験CDF上での擬似学習変換により予測条件の不確かさの推定値を求める。
この校正出力の高確率領域を, クラス条件別, 地域別CDFに分割することにより, クラス条件精度の推定値を得る。
sdmキャリブレーションによる不確実性評価は、テスト時間分布シフトやアウト・オブ・ディストリビューションインプットに対して著しく堅牢であり、有効サンプルサイズの認識を取り入れ、学習およびデータ分割プロセスからの不確実性の評価を提供するとともに、予測的不確実性に基づく追加のテスト時間計算のための選択的分類と条件分岐、例えば選択的なLCM生成、ルーティング、複数モデルおよび検索に対する合成に適している。
最後に,不確かさを意識した検証と解釈可能性を考慮したsdmネットワークを本質的特性として構築する。
これらの結果を実装したオープンソースソフトウェアを提供する。
関連論文リスト
- Assessing Correctness in LLM-Based Code Generation via Uncertainty Estimation [0.0]
LLM生成符号の正確性のプロキシとして不確実性推定を検討する。
我々は、自然言語生成から最先端の2つの技術を適用した。
我々は,不確実性が高い場合にモデルを予測できないようにするための禁忌ポリシーを開発する。
論文 参考訳(メタデータ) (2025-02-17T10:03:01Z) - Probabilistic Skip Connections for Deterministic Uncertainty Quantification in Deep Neural Networks [2.186901738997927]
現在の決定論的手法は、しばしばスペクトル正規化を伴うネットワークを再訓練する。
本稿では,神経崩壊の指標を用いて,感覚的かつスムーズな既存の中間層を特定することを提案する。
次に、この中間層の特徴ベクトルに確率モデルを適用し、確率スキップ接続(PSC)と呼ぶ。
論文 参考訳(メタデータ) (2025-01-08T20:12:33Z) - Quantifying the Prediction Uncertainty of Machine Learning Models for Individual Data [2.1248439796866228]
本研究では,線形回帰とニューラルネットワークに対するpNMLの学習可能性について検討する。
pNMLは様々なタスクにおけるこれらのモデルの性能と堅牢性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-12-10T13:58:19Z) - Post-hoc Probabilistic Vision-Language Models [51.12284891724463]
視覚言語モデル(VLM)は、分類、検索、生成タスクにおいて顕著な成功を収めている。
追加トレーニングを必要としないVLMにおけるポストホック不確実性評価を提案する。
この結果から,大規模モデルの安全性クリティカルな応用が期待できることがわかった。
論文 参考訳(メタデータ) (2024-12-08T18:16:13Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。