論文の概要: Torch-Uncertainty: A Deep Learning Framework for Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2511.10282v1
- Date: Fri, 14 Nov 2025 01:43:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.794187
- Title: Torch-Uncertainty: A Deep Learning Framework for Uncertainty Quantification
- Title(参考訳): Torch-Uncertainty: 不確実性定量化のためのディープラーニングフレームワーク
- Authors: Adrien Lafage, Olivier Laurent, Firas Gabetni, Gianni Franchi,
- Abstract要約: ディープラーニングのための不確実性定量化(UQ)は、不確実性推定の信頼性を向上させることを目的としている。
我々はPyTorchとLightningベースのフレームワークであるTorch-Uncertaintyを紹介した。
分類,セグメンテーション,回帰タスクにまたがる様々なUQ手法をベンチマークする総合的な実験結果を示す。
- 参考スコア(独自算出の注目度): 11.898587151486709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) have demonstrated remarkable performance across various domains, including computer vision and natural language processing. However, they often struggle to accurately quantify the uncertainty of their predictions, limiting their broader adoption in critical real-world applications. Uncertainty Quantification (UQ) for Deep Learning seeks to address this challenge by providing methods to improve the reliability of uncertainty estimates. Although numerous techniques have been proposed, a unified tool offering a seamless workflow to evaluate and integrate these methods remains lacking. To bridge this gap, we introduce Torch-Uncertainty, a PyTorch and Lightning-based framework designed to streamline DNN training and evaluation with UQ techniques and metrics. In this paper, we outline the foundational principles of our library and present comprehensive experimental results that benchmark a diverse set of UQ methods across classification, segmentation, and regression tasks. Our library is available at https://github.com/ENSTA-U2IS-AI/Torch-Uncertainty
- Abstract(参考訳): Deep Neural Networks (DNN)は、コンピュータビジョンや自然言語処理など、さまざまな領域で顕著なパフォーマンスを示している。
しかし、彼らはしばしば予測の不確実性を正確に定量化するのに苦労し、重要な現実世界のアプリケーションで広く採用されることを制限する。
ディープラーニングのための不確実性定量化(UQ)は、不確実性推定の信頼性を改善する方法を提供することによって、この問題に対処しようとしている。
数多くの技術が提案されているが、これらの手法を評価し統合するためのシームレスなワークフローを提供する統一ツールには不足が残っている。
このギャップを埋めるために、DNNトレーニングと評価をUQ技術とメトリクスで合理化するために設計されたPyTorchおよびLightningベースのフレームワークであるTorch-Uncertaintyを紹介します。
本稿では,本ライブラリの基本原理を概説し,分類,セグメンテーション,回帰タスクにまたがる多種多様なUQ手法をベンチマークする総合的な実験結果を示す。
私たちのライブラリはhttps://github.com/ENSTA-U2IS-AI/Torch-Uncertaintyで利用可能です。
関連論文リスト
- Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - A Survey on Uncertainty Quantification Methods for Deep Learning [7.102893202197349]
不確かさ定量化(UQ)は、予測精度以上のDNN予測の信頼性を推定することを目的としている。
本稿では,DNNに対するUQ手法の系統分類を,不確実性源の種類に基づいて提案する。
我々は、我々のUQ方法論の分類が、異なる機械学習問題におけるUQ手法の選択を導くのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-02-26T22:30:08Z) - Uncertainty Baselines: Benchmarks for Uncertainty & Robustness in Deep
Learning [66.59455427102152]
不確実性ベースライン(Uncertainty Baselines): 各種タスクにおける標準および最先端のディープラーニング手法の高品質な実装。
各ベースラインは、簡単に再利用可能で拡張可能なコンポーネントを備えた、自己完結型の実験パイプラインである。
モデルチェックポイント、Pythonノートブックとしての実験出力、結果を比較するためのリーダーボードを提供する。
論文 参考訳(メタデータ) (2021-06-07T23:57:32Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - Pitfalls of In-Domain Uncertainty Estimation and Ensembling in Deep
Learning [70.72363097550483]
本研究では,画像分類における領域内不確実性に着目した。
そこで本研究では,ディープアンサンブル等価スコア(DEE)を導入する。
論文 参考訳(メタデータ) (2020-02-15T23:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。