論文の概要: Fortuna: A Library for Uncertainty Quantification in Deep Learning
- arxiv url: http://arxiv.org/abs/2302.04019v1
- Date: Wed, 8 Feb 2023 12:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:27:49.685903
- Title: Fortuna: A Library for Uncertainty Quantification in Deep Learning
- Title(参考訳): Fortuna: ディープラーニングにおける不確実性定量化のためのライブラリ
- Authors: Gianluca Detommaso, Alberto Gasparin, Michele Donini, Matthias Seeger,
Andrew Gordon Wilson, Cedric Archambeau
- Abstract要約: ディープラーニングにおける不確実性定量化のためのオープンソースライブラリであるFortunaを紹介する。
F Fortunaは、任意のトレーニングニューラルネットワークに適用可能な共形予測など、さまざまなキャリブレーション技術をサポートし、信頼性の高い不確実性推定を生成する。
高度な不確実性定量化方法のための一貫性のあるフレームワークを提供することで、Fortunaはベンチマークのプロセスを単純化し、実践者が堅牢なAIシステムを構築するのに役立つ。
- 参考スコア(独自算出の注目度): 34.153335776499944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Fortuna, an open-source library for uncertainty quantification in
deep learning. Fortuna supports a range of calibration techniques, such as
conformal prediction that can be applied to any trained neural network to
generate reliable uncertainty estimates, and scalable Bayesian inference
methods that can be applied to Flax-based deep neural networks trained from
scratch for improved uncertainty quantification and accuracy. By providing a
coherent framework for advanced uncertainty quantification methods, Fortuna
simplifies the process of benchmarking and helps practitioners build robust AI
systems.
- Abstract(参考訳): ディープラーニングにおける不確実性定量化のためのオープンソースライブラリであるFortunaを紹介する。
fortunaは、トレーニングされたニューラルネットワークに適用して信頼性の高い不確実性推定を生成するような共形予測や、スクラッチからトレーニングされたflaxベースのディープニューラルネットワークに適用可能なスケーラブルなベイズ推論手法など、さまざまなキャリブレーション技術をサポートしている。
高度な不確実性定量化方法のための一貫性のあるフレームワークを提供することで、Fortunaはベンチマークのプロセスを単純化し、実践者が堅牢なAIシステムを構築するのに役立つ。
関連論文リスト
- Confidence Intervals and Simultaneous Confidence Bands Based on Deep Learning [0.36832029288386137]
本手法は, 適用された最適化アルゴリズムに固有の雑音からデータの不確実性を正しく解き放つことのできる, 有効な非パラメトリックブートストラップ法である。
提案したアドホック法は、トレーニングプロセスに干渉することなく、ディープニューラルネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2024-06-20T05:51:37Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in
Deep Learning [73.5095051707364]
経験的リスクを最小限に抑えるため,古典的な分布に依存しないフレームワークとアルゴリズムを検討する。
理想的な安定かつ正確なニューラルネットワークの計算と検証が極めて難しいタスク群が存在することを示す。
論文 参考訳(メタデータ) (2023-09-13T16:33:27Z) - Calibrating Multimodal Learning [94.65232214643436]
本稿では,従来の手法の予測信頼性を校正するために,新たな正規化手法であるCML(Callibrating Multimodal Learning)正則化を提案する。
この技術は、既存のモデルによって柔軟に装備され、信頼性校正、分類精度、モデルロバスト性の観点から性能を向上させることができる。
論文 参考訳(メタデータ) (2023-06-02T04:29:57Z) - Post-hoc Uncertainty Learning using a Dirichlet Meta-Model [28.522673618527417]
本研究では,不確実性定量化能力の優れた事前学習モデルを構築するための新しいベイズメタモデルを提案する。
提案手法は追加のトレーニングデータを必要としないため,不確かさの定量化に十分な柔軟性がある。
提案するメタモデルアプローチの柔軟性と,これらのアプリケーションに対する優れた経験的性能を実証する。
論文 参考訳(メタデータ) (2022-12-14T17:34:11Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Confidence-Aware Learning for Deep Neural Networks [4.9812879456945]
本稿では,新たな損失関数であるCorrectness Ranking Lossを用いたディープニューラルネットワークのトレーニング手法を提案する。
クラス確率を明示的に規則化し、信頼度に応じて順序付けされたランキングでより良い信頼度の推定を行う。
従来の深層分類器とほぼ同じ計算コストを持ち、1つの推論で信頼性のある予測を出力する。
論文 参考訳(メタデータ) (2020-07-03T02:00:35Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Scalable Uncertainty for Computer Vision with Functional Variational
Inference [18.492485304537134]
関数空間における変分推論の定式化を利用する。
選択したCNNアーキテクチャを1つのフォワードパスのコストで予測不確実性を推定する。
本研究では,高次元タスクの文脈で高速な学習を可能にする数値的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-06T19:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。