論文の概要: Target Detection on Hyperspectral Images Using MCMC and VI Trained
Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2308.06293v1
- Date: Fri, 11 Aug 2023 01:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 18:13:52.766045
- Title: Target Detection on Hyperspectral Images Using MCMC and VI Trained
Bayesian Neural Networks
- Title(参考訳): MCMCとVI訓練ベイズニューラルネットワークを用いたハイパースペクトル画像のターゲット検出
- Authors: Daniel Ries, Jason Adams, Joshua Zollweg
- Abstract要約: ベイズニューラルネットワーク(BNN)は、NN予測と推定のための不確実性定量化(UQ)を提供する。
ハイパースペクトル画像(HSI)のターゲット検出におけるMCMC-とVI-トレーニングBNNの適用と比較を行った。
どちらのモデルも、高忠実度HSIターゲット検出シーンのアウト・オブ・ボックスツールを使用してトレーニングされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks (NN) have become almost ubiquitous with image classification,
but in their standard form produce point estimates, with no measure of
confidence. Bayesian neural networks (BNN) provide uncertainty quantification
(UQ) for NN predictions and estimates through the posterior distribution. As NN
are applied in more high-consequence applications, UQ is becoming a
requirement. BNN provide a solution to this problem by not only giving accurate
predictions and estimates, but also an interval that includes reasonable values
within a desired probability. Despite their positive attributes, BNN are
notoriously difficult and time consuming to train. Traditional Bayesian methods
use Markov Chain Monte Carlo (MCMC), but this is often brushed aside as being
too slow. The most common method is variational inference (VI) due to its fast
computation, but there are multiple concerns with its efficacy. We apply and
compare MCMC- and VI-trained BNN in the context of target detection in
hyperspectral imagery (HSI), where materials of interest can be identified by
their unique spectral signature. This is a challenging field, due to the
numerous permuting effects practical collection of HSI has on measured spectra.
Both models are trained using out-of-the-box tools on a high fidelity HSI
target detection scene. Both MCMC- and VI-trained BNN perform well overall at
target detection on a simulated HSI scene. This paper provides an example of
how to utilize the benefits of UQ, but also to increase awareness that
different training methods can give different results for the same model. If
sufficient computational resources are available, the best approach rather than
the fastest or most efficient should be used, especially for high consequence
problems.
- Abstract(参考訳): ニューラルネットワーク(NN)は画像分類においてほぼ至るところで普及しているが、その標準形は信頼度を測らずに点推定を生成する。
ベイズニューラルネットワーク(BNN)は、NN予測と後部分布による推定のための不確実性定量化(UQ)を提供する。
NNがより高精度なアプリケーションに適用されるにつれて、UQは要件になりつつある。
bnnは、正確な予測と推定を与えるだけでなく、所望の確率内に妥当な値を含む間隔を与えることで、この問題に対する解決策を提供する。
肯定的な特性にもかかわらず、BNNは訓練に時間がかかることで知られている。
伝統的なベイズ方式ではマルコフ・チェイン・モンテ・カルロ (MCMC) を用いるが、これはしばしば遅すぎるとしてブラシで磨かれる。
最も一般的な方法は、高速な計算のため変動推論(VI)であるが、その有効性には複数の懸念がある。
我々は、高スペクトル画像(HSI)におけるターゲット検出の文脈において、MCMC-およびVI-trained BNNを適用して比較する。
これは、HSIの実用的な収集が測定スペクトルに与える影響が多々あるため、困難な分野である。
どちらのモデルも、高忠実度HSIターゲット検出シーンのアウトオブボックスツールを使用してトレーニングされている。
MCMC-とVI-trained BNNは、シミュレーションされたHSIシーンのターゲット検出において、全体的に良好に動作する。
本稿では、UQの利点を利用する方法の例を示すとともに、異なるトレーニング手法が同じモデルに対して異なる結果をもたらすことを認識させる。
十分な計算資源が利用可能であれば、特に高結果問題において、最速または最も効率的ではなく、最善のアプローチが使用されるべきである。
関連論文リスト
- Single-shot Bayesian approximation for neural networks [0.0]
ディープニューラルネットワーク(NN)はその高い予測性能で知られている。
NNは不確実性を示すことなく、全く新しい状況に遭遇すると信頼できない予測を下す傾向にある。
単発MCドロップアウト近似は,BNNの利点を保ちながら,NNと同じくらい高速であることを示す。
論文 参考訳(メタデータ) (2023-08-24T13:40:36Z) - Random-Set Neural Networks (RS-NN) [4.549947259731147]
分類のための新しいランダムセットニューラルネットワーク(RS-NN)を提案する。
RS-NNは、一組のクラス上の確率ベクトルよりも信念関数を予測する。
限られたトレーニングセットによって、機械学習で引き起こされる「緊急」不確実性を符号化する。
論文 参考訳(メタデータ) (2023-07-11T20:00:35Z) - Masked Bayesian Neural Networks : Theoretical Guarantee and its
Posterior Inference [1.2722697496405464]
本稿では,理論特性が良好で,計算可能な新しいノードスパースBNNモデルを提案する。
我々は、真のモデルに対する後部濃度速度が、真のモデルの滑らかさに適応する最小限の最適値に近いことを証明した。
さらに,ノードスパースBNNモデルのベイズ推定を現実的に実現可能な新しいMCMCアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-24T06:16:11Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - A Simple Approach to Improve Single-Model Deep Uncertainty via
Distance-Awareness [33.09831377640498]
本研究では,1つの決定論的表現に基づく1つのネットワークの不確実性向上手法について検討する。
本稿では,現代のDNNにおける距離認識能力を向上させる簡易な手法として,スペクトル正規化ニューラルガウス過程(SNGP)を提案する。
ビジョンと言語理解のベンチマークスイートでは、SNGPは予測、キャリブレーション、ドメイン外検出において、他の単一モデルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-05-01T05:46:13Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。