論文の概要: Torch-Uncertainty: A Deep Learning Framework for Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2511.10282v1
- Date: Fri, 14 Nov 2025 01:43:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.794187
- Title: Torch-Uncertainty: A Deep Learning Framework for Uncertainty Quantification
- Title(参考訳): Torch-Uncertainty: 不確実性定量化のためのディープラーニングフレームワーク
- Authors: Adrien Lafage, Olivier Laurent, Firas Gabetni, Gianni Franchi,
- Abstract要約: ディープラーニングのための不確実性定量化(UQ)は、不確実性推定の信頼性を向上させることを目的としている。
我々はPyTorchとLightningベースのフレームワークであるTorch-Uncertaintyを紹介した。
分類,セグメンテーション,回帰タスクにまたがる様々なUQ手法をベンチマークする総合的な実験結果を示す。
- 参考スコア(独自算出の注目度): 11.898587151486709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) have demonstrated remarkable performance across various domains, including computer vision and natural language processing. However, they often struggle to accurately quantify the uncertainty of their predictions, limiting their broader adoption in critical real-world applications. Uncertainty Quantification (UQ) for Deep Learning seeks to address this challenge by providing methods to improve the reliability of uncertainty estimates. Although numerous techniques have been proposed, a unified tool offering a seamless workflow to evaluate and integrate these methods remains lacking. To bridge this gap, we introduce Torch-Uncertainty, a PyTorch and Lightning-based framework designed to streamline DNN training and evaluation with UQ techniques and metrics. In this paper, we outline the foundational principles of our library and present comprehensive experimental results that benchmark a diverse set of UQ methods across classification, segmentation, and regression tasks. Our library is available at https://github.com/ENSTA-U2IS-AI/Torch-Uncertainty
- Abstract(参考訳): Deep Neural Networks (DNN)は、コンピュータビジョンや自然言語処理など、さまざまな領域で顕著なパフォーマンスを示している。
しかし、彼らはしばしば予測の不確実性を正確に定量化するのに苦労し、重要な現実世界のアプリケーションで広く採用されることを制限する。
ディープラーニングのための不確実性定量化(UQ)は、不確実性推定の信頼性を改善する方法を提供することによって、この問題に対処しようとしている。
数多くの技術が提案されているが、これらの手法を評価し統合するためのシームレスなワークフローを提供する統一ツールには不足が残っている。
このギャップを埋めるために、DNNトレーニングと評価をUQ技術とメトリクスで合理化するために設計されたPyTorchおよびLightningベースのフレームワークであるTorch-Uncertaintyを紹介します。
本稿では,本ライブラリの基本原理を概説し,分類,セグメンテーション,回帰タスクにまたがる多種多様なUQ手法をベンチマークする総合的な実験結果を示す。
私たちのライブラリはhttps://github.com/ENSTA-U2IS-AI/Torch-Uncertaintyで利用可能です。
関連論文リスト
- UncertaintyZoo: A Unified Toolkit for Quantifying Predictive Uncertainty in Deep Learning Systems [5.790749437470997]
大規模言語モデル(LLM)は、ドメイン間で現実世界のアプリケーションを拡大している。
この成果にもかかわらず、LLMはしばしば誤った予測を行い、安全クリティカルなシナリオの潜在的な損失につながる可能性がある。
我々は29個の不確実性定量化手法を統合する統一ツールキットUncertaintyZooを紹介する。
論文 参考訳(メタデータ) (2025-12-06T11:45:50Z) - UNCERTAINTY-LINE: Length-Invariant Estimation of Uncertainty for Large Language Models [51.53270695871237]
UNCERTAINTY-LINEは、名目上は長さ正規化UQ法よりも一貫して改善されていることを示す。
本手法は, ポストホック, モデル非依存であり, 様々なUQ尺度に適用可能である。
論文 参考訳(メタデータ) (2025-05-25T09:30:43Z) - Token-Level Density-Based Uncertainty Quantification Methods for Eliciting Truthfulness of Large Language Models [76.17975723711886]
不確実性定量化(英: Uncertainty Quantification、UQ)は、大規模言語モデル(LLM)から真正性を求めるための顕著なアプローチである。
本研究では,テキスト生成のために,分類タスクのUQ技術であるMahalanobis Distance (MD)を適用した。
提案手法は,複数レイヤのLCMからトークン埋め込みを抽出し,各トークンのMDスコアを計算し,これらの特徴を訓練した線形回帰を用いてロバストな不確実性スコアを提供する。
論文 参考訳(メタデータ) (2025-02-20T10:25:13Z) - Uncertainty Quantification with the Empirical Neural Tangent Kernel [13.132499571608868]
トレーニング終了時のオーバーパラメータ化ネットワークに対するポストホックサンプリングに基づくUQ手法を提案する。
提案手法は,(確率的な)勾配-発散サンプリング法を用いて,効率的かつ有意義な深層アンサンブルを構築する。
提案手法は,複数の要因によるコスト削減の計算効率において,競合するアプローチよりも優れるだけでなく,回帰処理と分類処理の両方において,様々なUQ指標の最先端性能を維持できることを示す。
論文 参考訳(メタデータ) (2025-02-05T04:01:34Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - A Survey on Uncertainty Quantification Methods for Deep Learning [7.102893202197349]
不確かさ定量化(UQ)は、予測精度以上のDNN予測の信頼性を推定することを目的としている。
本稿では,DNNに対するUQ手法の系統分類を,不確実性源の種類に基づいて提案する。
我々は、我々のUQ方法論の分類が、異なる機械学習問題におけるUQ手法の選択を導くのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-02-26T22:30:08Z) - Uncertainty Baselines: Benchmarks for Uncertainty & Robustness in Deep
Learning [66.59455427102152]
不確実性ベースライン(Uncertainty Baselines): 各種タスクにおける標準および最先端のディープラーニング手法の高品質な実装。
各ベースラインは、簡単に再利用可能で拡張可能なコンポーネントを備えた、自己完結型の実験パイプラインである。
モデルチェックポイント、Pythonノートブックとしての実験出力、結果を比較するためのリーダーボードを提供する。
論文 参考訳(メタデータ) (2021-06-07T23:57:32Z) - Uncertainty-Wizard: Fast and User-Friendly Neural Network Uncertainty
Quantification [4.56877715768796]
不確実性ウィザードは、そのような不確実性とニューラルネットワークの信頼性を定量化するツールである。
業界をリードするtf.kerasディープラーニングAPI上に構築されており、ほぼ透明で分かりやすいインターフェースを提供する。
論文 参考訳(メタデータ) (2020-12-29T15:38:24Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - Confidence-Aware Learning for Deep Neural Networks [4.9812879456945]
本稿では,新たな損失関数であるCorrectness Ranking Lossを用いたディープニューラルネットワークのトレーニング手法を提案する。
クラス確率を明示的に規則化し、信頼度に応じて順序付けされたランキングでより良い信頼度の推定を行う。
従来の深層分類器とほぼ同じ計算コストを持ち、1つの推論で信頼性のある予測を出力する。
論文 参考訳(メタデータ) (2020-07-03T02:00:35Z) - Pitfalls of In-Domain Uncertainty Estimation and Ensembling in Deep
Learning [70.72363097550483]
本研究では,画像分類における領域内不確実性に着目した。
そこで本研究では,ディープアンサンブル等価スコア(DEE)を導入する。
論文 参考訳(メタデータ) (2020-02-15T23:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。