論文の概要: URSABench: Comprehensive Benchmarking of Approximate Bayesian Inference
Methods for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2007.04466v1
- Date: Wed, 8 Jul 2020 22:51:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:40:50.796437
- Title: URSABench: Comprehensive Benchmarking of Approximate Bayesian Inference
Methods for Deep Neural Networks
- Title(参考訳): URSABench:ディープニューラルネットワークのための近似ベイズ推論法の総合ベンチマーク
- Authors: Meet P. Vadera, Adam D. Cobb, Brian Jalaian, Benjamin M. Marlin
- Abstract要約: ディープラーニング手法は、幅広いアプリケーション領域で予測精度を向上し続けている。
ベイズ近似の最近の進歩は、これらの懸念に対処する上で大きな可能性を秘めている。
ベンチマーキングツールのオープンソーススイートであるURSABenchの開発について,ベイズ推定法を総合的に評価するための初期研究について述べる。
- 参考スコア(独自算出の注目度): 15.521736934292354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning methods continue to improve in predictive accuracy on a
wide range of application domains, significant issues remain with other aspects
of their performance including their ability to quantify uncertainty and their
robustness. Recent advances in approximate Bayesian inference hold significant
promise for addressing these concerns, but the computational scalability of
these methods can be problematic when applied to large-scale models. In this
paper, we describe initial work on the development ofURSABench(the Uncertainty,
Robustness, Scalability, and Accu-racy Benchmark), an open-source suite of
bench-marking tools for comprehensive assessment of approximate Bayesian
inference methods with a focus on deep learning-based classification tasks
- Abstract(参考訳): ディープラーニング手法は、幅広いアプリケーションドメインにおける予測精度の向上を続けているが、不確実性とその堅牢性など、パフォーマンスの他の面においても重要な問題が残っている。
ベイズ近似の最近の進歩はこれらの問題に対処する上で大きな可能性を秘めているが、これらの手法の計算スケーラビリティは大規模モデルに適用した場合に問題となる可能性がある。
本稿では,深層学習に基づく分類タスクに着目した近似ベイズ推定手法の包括的評価のためのベンチマークツールのオープンソーススイートであるofursabench(the uncertainty, robustness, scalability, and accu-racy benchmark)の開発に関する初期研究について述べる。
関連論文リスト
- A Review of Bayesian Uncertainty Quantification in Deep Probabilistic Image Segmentation [0.0]
画像セグメンテーションの進歩は、ディープラーニングベースのコンピュータビジョンの広い範囲において重要な役割を果たす。
この文脈において不確かさの定量化が広く研究され、モデル無知(認識の不確実性)やデータ曖昧さ(アラート的不確実性)を表現し、不正な意思決定を防ぐことができる。
この研究は、分野の進歩を左右する不確実性の基本概念と様々なタスクへの応用について議論することで、確率的セグメンテーションの包括的概要を提供する。
論文 参考訳(メタデータ) (2024-11-25T13:26:09Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - Quantitative performance evaluation of Bayesian neural networks [0.0]
ディープラーニングの不確実性に関する訴訟が増えているにもかかわらず、不確実性推定の品質は未解決の問題のままである。
本研究では,サンプリングタスクと回帰タスクにおける複数のアルゴリズムの性能評価を試みる。
論文 参考訳(メタデータ) (2022-06-08T06:56:50Z) - (De-)Randomized Smoothing for Decision Stump Ensembles [5.161531917413708]
ツリーベースモデルは、金融や医療など、多くの高度なアプリケーションドメインで使われている。
本稿では,決定スタンプアンサンブルに対する決定論的スムース化を提案する。
決定論的ロバスト性証明は,数値的特徴と分類的特徴を併せ持つものである。
論文 参考訳(メタデータ) (2022-05-27T11:23:50Z) - Evaluating Predictive Distributions: Does Bayesian Deep Learning Work? [45.290773422944866]
後続の予測分布は、点推定によって無視される不確実性を定量化する。
本稿では,このような予測を生成するエージェントの系統的評価を行うためのツールである,The Neural Testbedを紹介する。
論文 参考訳(メタデータ) (2021-10-09T18:54:02Z) - $\beta$-Cores: Robust Large-Scale Bayesian Data Summarization in the
Presence of Outliers [14.918826474979587]
古典的ベイズ推定の質は、観測結果が推定データ生成モデルに適合するかどうかに大きく依存する。
本稿では,大容量データセットに同時スケール可能な変分推論手法を提案する。
多様なシミュレーションおよび実データ、および様々な統計モデルにおいて、我々のアプローチの適用性について説明する。
論文 参考訳(メタデータ) (2020-08-31T13:47:12Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Pitfalls of In-Domain Uncertainty Estimation and Ensembling in Deep
Learning [70.72363097550483]
本研究では,画像分類における領域内不確実性に着目した。
そこで本研究では,ディープアンサンブル等価スコア(DEE)を導入する。
論文 参考訳(メタデータ) (2020-02-15T23:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。