論文の概要: UncertaINR: Uncertainty Quantification of End-to-End Implicit Neural
Representations for Computed Tomography
- arxiv url: http://arxiv.org/abs/2202.10847v1
- Date: Tue, 22 Feb 2022 12:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:40:02.950421
- Title: UncertaINR: Uncertainty Quantification of End-to-End Implicit Neural
Representations for Computed Tomography
- Title(参考訳): 不確実性 : エンド・ツー・エンドの暗黙的神経表現の不確実性定量化
- Authors: Francisca Vasconcelos, Bobby He, Nalini Singh, Yee Whye Teh
- Abstract要約: Inlicit Neural representations (INRs) はシーン再構成とコンピュータグラフィックスにおいて印象的な結果を得た。
医療画像では, 再建問題が過小評価され, モデル予測が高用量診断に影響を及ぼす場合, INR推論の不確実性が重要となる。
画像再構成法UncertaINRのCTへの応用について検討する。
- 参考スコア(独自算出の注目度): 35.84136481440458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representations (INRs) have achieved impressive results for
scene reconstruction and computer graphics, where their performance has
primarily been assessed on reconstruction accuracy. However, in medical
imaging, where the reconstruction problem is underdetermined and model
predictions inform high-stakes diagnoses, uncertainty quantification of INR
inference is critical. To that end, we study UncertaINR: a Bayesian
reformulation of INR-based image reconstruction, for computed tomography (CT).
We test several Bayesian deep learning implementations of UncertaINR and find
that they achieve well-calibrated uncertainty, while retaining accuracy
competitive with other classical, INR-based, and CNN-based reconstruction
techniques. In contrast to the best-performing prior approaches, UncertaINR
does not require a large training dataset, but only a handful of validation
images.
- Abstract(参考訳): 暗黙的神経表現 (inrs) はシーン再構成とコンピュータグラフィックスにおいて印象的な結果をもたらしており、その性能は主に再構成精度で評価されている。
しかし, 再建問題が過小評価され, モデル予測が高感度診断に影響を及ぼす医療画像では, INR推論の不確実性定量化が重要である。
そこで我々は, 画像再構成のベイズ的再構成であるUncertaINRをCT(Computed tomography)のために検討した。
We test several Bayesian Deep Learning implementation of UncertaINR and found that they achieve well-calibrated uncertainty, while keep accuracy competitive with other classical, INR-based, and CNN-based reconstruction techniques。
最高のパフォーマンスのアプローチとは対照的に、UncertaINRは大規模なトレーニングデータセットを必要とせず、少数のバリデーションイメージのみを必要とする。
関連論文リスト
- Hierarchical uncertainty estimation for learning-based registration in neuroimaging [10.964653898591413]
本研究では,空間的位置の程度で推定される不確実性を伝播する原理的手法を提案する。
実験により,脳MRI画像の登録精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-10-11T23:12:16Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - On the Calibration and Uncertainty with P\'{o}lya-Gamma Augmentation for
Dialog Retrieval Models [30.519215651368683]
ダイアログ応答検索モデルは、ある質問にどの程度関連があるかという応答に対して単一のスコアを出力します。
ディープニューラルネットワークのキャリブレーションの悪さは、信頼性の低い予測が常にユーザの判断を誤ったように、シングルスコアに対してさまざまな不確実性をもたらす。
対話応答検索モデルのための効率的な校正・不確実性推定フレームワークPG-DRRを提案する。
論文 参考訳(メタデータ) (2023-03-15T13:26:25Z) - A Benchmark on Uncertainty Quantification for Deep Learning Prognostics [0.0]
診断学的な深層学習のための不確実性定量化の分野における最新の発展のいくつかを評価する。
これには、ベイズニューラルネットワーク(BNN)の最先端の変分推論アルゴリズムや、モンテカルロ・ドロップアウト(MCD)、ディープアンサンブル(DE)、ヘテロセダスティックニューラルネットワーク(HNN)などの一般的な代替品が含まれる。
この手法の性能は、NASA NCMAPSSの航空機エンジン用データセットのサブセットで評価される。
論文 参考訳(メタデータ) (2023-02-09T16:12:47Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - On Calibration of Mixup Training for Deep Neural Networks [1.6242924916178283]
我々は、Mixupが必ずしも校正を改善していないという実証的な証拠を論じ、提示する。
我々の損失はベイズ決定理論にインスパイアされ、確率的モデリングの損失を設計するための新しいトレーニングフレームワークが導入された。
キャリブレーション性能を一貫した改善を施した最先端の精度を提供する。
論文 参考訳(メタデータ) (2020-03-22T16:54:31Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。