論文の概要: Model Uncertainty Quantification for Reliable Deep Vision Structural
Health Monitoring
- arxiv url: http://arxiv.org/abs/2004.05151v1
- Date: Fri, 10 Apr 2020 17:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 21:22:35.734944
- Title: Model Uncertainty Quantification for Reliable Deep Vision Structural
Health Monitoring
- Title(参考訳): 信頼できる深視野構造ヘルスモニタリングのためのモデル不確かさ定量化
- Authors: Seyed Omid Sajedi, Xiao Liang
- Abstract要約: 本稿では,深部視覚構造型健康モニタリングモデルに対するベイズ推定を提案する。
不確かさはモンテカルロのドロップアウトサンプリングを用いて定量化することができる。
き裂, 局部損傷同定, 橋梁部品検出の3つの独立したケーススタディについて検討した。
- 参考スコア(独自算出の注目度): 2.5126058470073263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision leveraging deep learning has achieved significant success in
the last decade. Despite the promising performance of the existing deep models
in the recent literature, the extent of models' reliability remains unknown.
Structural health monitoring (SHM) is a crucial task for the safety and
sustainability of structures, and thus prediction mistakes can have fatal
outcomes. This paper proposes Bayesian inference for deep vision SHM models
where uncertainty can be quantified using the Monte Carlo dropout sampling.
Three independent case studies for cracks, local damage identification, and
bridge component detection are investigated using Bayesian inference. Aside
from better prediction results, mean class softmax variance and entropy, the
two uncertainty metrics, are shown to have good correlations with
misclassifications. While the uncertainty metrics can be used to trigger human
intervention and potentially improve prediction results, interpretation of
uncertainty masks can be challenging. Therefore, surrogate models are
introduced to take the uncertainty as input such that the performance can be
further boosted. The proposed methodology in this paper can be applied to
future deep vision SHM frameworks to incorporate model uncertainty in the
inspection processes.
- Abstract(参考訳): ディープラーニングを活用したコンピュータビジョンはこの10年で大きな成功を収めた。
最近の文献では既存の深層モデルの有望な性能にもかかわらず、モデルの信頼性は未だ不明である。
構造ヘルスモニタリング(shm)は構造物の安全性と持続性にとって重要な課題であり、予測ミスは致命的な結果をもたらす可能性がある。
本稿では,モンテカルロ・ドロップアウトサンプリングを用いて不確かさを定量化できる深部視覚scmモデルのベイズ推定を提案する。
亀裂, 局所損傷同定, 橋梁成分検出の3つの独立したケーススタディをベイズ推定を用いて検討した。
予測結果の改善に加えて,2つの不確実性指標である平均クラスソフトマックス分散とエントロピーは,誤分類と良好な相関関係があることが示されている。
不確実性指標は、人間の介入を誘発し、予測結果を改善するために使用できるが、不確実性マスクの解釈は困難である。
したがって、性能をさらに高めるように入力として不確実性を取るためにサロゲートモデルが導入される。
本稿では,検査プロセスにモデル不確実性を組み込むため,将来の深層視覚SHMフレームワークに適用することができる。
関連論文リスト
- Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - MonoProb: Self-Supervised Monocular Depth Estimation with Interpretable
Uncertainty [4.260312058817663]
自己監督型単眼深度推定法は, 環境分析における自律走行車などの重要な応用に利用されることを目的としている。
解釈不能な不確実性を返す新しい教師なし単分子深度推定法であるMonoProbを提案する。
実験では,標準深度と不確実性の測定値について,本手法により達成された改善点を強調した。
論文 参考訳(メタデータ) (2023-11-10T15:55:14Z) - Discretization-Induced Dirichlet Posterior for Robust Uncertainty
Quantification on Regression [17.49026509916207]
不確実性定量化は、現実世界のアプリケーションにディープニューラルネットワーク(DNN)をデプロイするために重要である。
視覚回帰タスクでは、現在のAuxUE設計は、主にアレタリック不確実性推定に採用されている。
回帰タスクにおけるより堅牢な不確実性定量化のための一般化されたAuxUEスキームを提案する。
論文 参考訳(メタデータ) (2023-08-17T15:54:11Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Integrating Uncertainty into Neural Network-based Speech Enhancement [27.868722093985006]
時間周波数領域における監視されたマスキングアプローチは、ディープニューラルネットワークを使用して乗法マスクを推定し、クリーンな音声を抽出することを目的としている。
これにより、信頼性の保証や尺度を使わずに、各入力に対する単一の見積もりが導かれる。
クリーン音声推定における不確実性モデリングの利点について検討する。
論文 参考訳(メタデータ) (2023-05-15T15:55:12Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Training, Architecture, and Prior for Deterministic Uncertainty Methods [33.45069308137142]
本研究は決定論的不確実性法(DUM)における重要な設計選択について検討する。
コアアーキテクチャと不確実性ヘッドスキームを分離したトレーニングスキームは、不確実性性能を大幅に改善できることを示す。
他のベイズモデルとは対照的に、DUMが定義した事前定義が最終的な性能に強い影響を及ぼさないことを示す。
論文 参考訳(メタデータ) (2023-03-10T09:00:52Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Learning to Predict Error for MRI Reconstruction [67.76632988696943]
提案手法による予測の不確実性は予測誤差と強く相関しないことを示す。
本稿では,2段階の予測誤差の目標ラベルと大小を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T15:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。