論文の概要: Cycle Consistency-based Uncertainty Quantification of Neural Networks in
Inverse Imaging Problems
- arxiv url: http://arxiv.org/abs/2305.12852v1
- Date: Mon, 22 May 2023 09:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:10:57.580075
- Title: Cycle Consistency-based Uncertainty Quantification of Neural Networks in
Inverse Imaging Problems
- Title(参考訳): 逆イメージング問題におけるニューラルネットの不確実性定量化
- Authors: Luzhe Huang, Jianing Li, Xiaofu Ding, Yijie Zhang, Hanlong Chen,
Aydogan Ozcan
- Abstract要約: ディープニューラルネットワークの多くの応用には不確実性推定が不可欠である。
サイクル整合性に基づく逆問題に使用されるディープニューラルネットワークに対する不確実性定量化手法を示す。
- 参考スコア(独自算出の注目度): 10.992084413881592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty estimation is critical for numerous applications of deep neural
networks and draws growing attention from researchers. Here, we demonstrate an
uncertainty quantification approach for deep neural networks used in inverse
problems based on cycle consistency. We build forward-backward cycles using the
physical forward model available and a trained deep neural network solving the
inverse problem at hand, and accordingly derive uncertainty estimators through
regression analysis on the consistency of these forward-backward cycles. We
theoretically analyze cycle consistency metrics and derive their relationship
with respect to uncertainty, bias, and robustness of the neural network
inference. To demonstrate the effectiveness of these cycle consistency-based
uncertainty estimators, we classified corrupted and out-of-distribution input
image data using some of the widely used image deblurring and super-resolution
neural networks as testbeds. The blind testing of our method outperformed other
models in identifying unseen input data corruption and distribution shifts.
This work provides a simple-to-implement and rapid uncertainty quantification
method that can be universally applied to various neural networks used for
solving inverse problems.
- Abstract(参考訳): 不確実性推定はディープニューラルネットワークの多くの応用において重要であり、研究者から注目を集めている。
本稿では,サイクル整合性に基づく逆問題に使用されるディープニューラルネットワークに対する不確実性定量化手法を示す。
物理フォワードモデルとトレーニングされたディープ・ニューラルネットワークを用いてフォワード・サイクルを構築し,これらのフォワード・フォワード・サイクルの整合性に関する回帰解析により不確実性推定器を導出する。
理論的には、サイクル一貫性のメトリクスを分析し、不確実性、バイアス、ニューラルネットワーク推論のロバスト性との関係を導出する。
これらのサイクル一貫性に基づく不確実性推定器の有効性を実証するために,画像デブラリングおよび超解像ニューラルネットワークをテストベッドとして用いた。
提案手法のブラインドテストは,入力データの破損や分布変化を識別する上で,他のモデルよりも優れていた。
この研究は、逆問題解決に使用される様々なニューラルネットワークに普遍的に適用可能な、単純で実装の速い不確実性定量化法を提供する。
関連論文リスト
- An Analytic Solution to Covariance Propagation in Neural Networks [10.013553984400488]
本稿では,ニューラルネットワークの入出力分布を正確に特徴付けるために,サンプルフリーモーメント伝搬法を提案する。
この手法の鍵となる有効性は、非線形活性化関数を通した確率変数の共分散に対する解析解である。
学習ニューラルネットワークの入力出力分布を分析し,ベイズニューラルネットワークを訓練する実験において,提案手法の適用性およびメリットを示す。
論文 参考訳(メタデータ) (2024-03-24T14:08:24Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - To be or not to be stable, that is the question: understanding neural
networks for inverse problems [0.0]
本稿では,ニューラルネットワークの安定性と精度のトレードオフを理論的に解析する。
ネットワークの安定性を高め、良好な精度を維持するために、異なる教師付きおよび教師なしのソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-24T16:16:40Z) - Global quantitative robustness of regression feed-forward neural
networks [0.0]
我々は回帰分解点の概念を回帰ニューラルネットワークに適用する。
我々は、故障率のプロキシにより、サンプル外損失によって測定された性能を比較した。
この結果は、ニューラルネットワークのトレーニングにロバストな損失関数を使うことを動機付けている。
論文 参考訳(メタデータ) (2022-11-18T09:57:53Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Stable, accurate and efficient deep neural networks for inverse problems
with analysis-sparse models [2.969705152497174]
本稿では,一般解析スパースモデルを用いた逆問題に対する高精度で安定かつ効率的なニューラルネットワークの構築について述べる。
ネットワーク構築のために,凸最適化のための1次高速化手法であるNESTAをアンロールする。
再起動方式は、必要なネットワーク深さの指数的減衰を可能とし、より浅いネットワークとなり、その結果より効率的なネットワークを実現する。
論文 参考訳(メタデータ) (2022-03-02T00:44:25Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。