論文の概要: Cram\'er-Rao bound-informed training of neural networks for quantitative
MRI
- arxiv url: http://arxiv.org/abs/2109.10535v1
- Date: Wed, 22 Sep 2021 06:38:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:31:49.265864
- Title: Cram\'er-Rao bound-informed training of neural networks for quantitative
MRI
- Title(参考訳): 定量的mriのためのニューラルネットワークのクレーア・ラオ・バウンドインフォームドトレーニング
- Authors: Xiaoxia Zhang, Quentin Duchemin, Kangning Liu, Sebastian Flassbeck,
Cem Gultekin, Carlos Fernandez-Granda, Jakob Assl\"ander
- Abstract要約: ニューラルネットワークは、定量的MRI、特に磁気共鳴フィンガープリントでパラメーターを推定するためにますます使われている。
それらの利点は、より優れた速度と非効率な非バイアス推定器の優位性である。
しかし、不均一なパラメータを推定することは困難である。
CRBを用いて二乗誤差を正規化するClam'erRao損失関数を提案する。
- 参考スコア(独自算出の注目度): 11.964144201247198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are increasingly used to estimate parameters in quantitative
MRI, in particular in magnetic resonance fingerprinting. Their advantages over
the gold standard non-linear least square fitting are their superior speed and
their immunity to the non-convexity of many fitting problems. We find, however,
that in heterogeneous parameter spaces, i.e. in spaces in which the variance of
the estimated parameters varies considerably, good performance is hard to
achieve and requires arduous tweaking of the loss function, hyper parameters,
and the distribution of the training data in parameter space. Here, we address
these issues with a theoretically well-founded loss function: the Cram\'er-Rao
bound (CRB) provides a theoretical lower bound for the variance of an unbiased
estimator and we propose to normalize the squared error with respective CRB.
With this normalization, we balance the contributions of hard-to-estimate and
not-so-hard-to-estimate parameters and areas in parameter space, and avoid a
dominance of the former in the overall training loss. Further, the CRB-based
loss function equals one for a maximally-efficient unbiased estimator, which we
consider the ideal estimator. Hence, the proposed CRB-based loss function
provides an absolute evaluation metric. We compare a network trained with the
CRB-based loss with a network trained with the commonly used means squared
error loss and demonstrate the advantages of the former in numerical, phantom,
and in vivo experiments.
- Abstract(参考訳): ニューラルネットワークは、定量的MRI、特に磁気共鳴フィンガープリントでパラメーターを推定するためにますます使われている。
金標準の非線形最小二乗フィッティングに対するそれらの利点は、その優れた速度と多くのフィッティング問題の非凸性に対する免疫である。
しかし,不均質なパラメータ空間,すなわち推定パラメータのばらつきが大きく変化する空間において,良好な性能を得るのが困難であり,損失関数,ハイパーパラメータ,およびパラメータ空間におけるトレーニングデータの分布の厳密な調整が必要となる。
ここでは、これらの問題を理論的に十分に確立された損失関数を用いて解決する: Cram\'er-Rao 境界 (CRB) は、非バイアス推定器の分散に対する理論的下界を提供し、各 CRB で二乗誤差を正規化することを提案する。
この正規化により,パラメータ空間における推定困難パラメータと推定不能パラメータの寄与度をバランスさせ,トレーニング損失における前者の優位を回避できる。
さらに、CRBに基づく損失関数は、理想的な推定器である最大効率の非バイアス推定器に対して等しい。
したがって、提案したCRBに基づく損失関数は絶対評価指標を提供する。
CRBに基づく損失をトレーニングしたネットワークと、一般的に使用される2乗誤差損失をトレーニングしたネットワークを比較し、数値、幻、生体実験における前者の利点を実証する。
関連論文リスト
- Neural Network Approximation for Pessimistic Offline Reinforcement
Learning [17.756108291816908]
一般ニューラルネットワーク近似を用いた悲観的オフラインRLの非漸近的推定誤差を提案する。
その結果, 推定誤差は2つの部分から構成されることがわかった。第1は, 部分的に制御可能な集束率でサンプルサイズに所望の速度で0に収束し, 第2は残留制約が厳密であれば無視可能である。
論文 参考訳(メタデータ) (2023-12-19T05:17:27Z) - Bias-Reduced Neural Networks for Parameter Estimation in Quantitative MRI [0.13654846342364307]
ニューラルネットワーク(NN)に基づく定量的MRIパラメータ推定器を開発した。
論文 参考訳(メタデータ) (2023-11-13T20:41:48Z) - Rician likelihood loss for quantitative MRI using self-supervised deep
learning [4.937920705275674]
自己教師型ディープラーニングを用いた従来の定量的MR画像解析では,低SNRでの偏差パラメータ推定が報告されている。
我々は,試験対象のSNRの全範囲にわたって数値的に安定かつ精度の高い負対数リシアン損失(NLR)を導入する。
我々は,MR画像の定量的手法を広範に活用し,ノイズデータからより正確な推定を可能にすることを期待している。
論文 参考訳(メタデータ) (2023-07-13T21:42:26Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Gaining Outlier Resistance with Progressive Quantiles: Fast Algorithms
and Theoretical Studies [1.6457778420360534]
任意の損失関数を強固化するために, 外部抵抗推定の枠組みを導入する。
通常のデータセットでは、データ再見積の回数を大幅に削減できるような、開始点の要件を緩和する新しい手法が提案されている。
得られた推定器は、必ずしも大域的でも大域的でもなくても、両方の低次元において最適性を楽しむことができる。
論文 参考訳(メタデータ) (2021-12-15T20:35:21Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Bayesian Uncertainty Estimation of Learned Variational MRI
Reconstruction [63.202627467245584]
我々は,モデル不連続な不確かさを定量化するベイズ変分フレームワークを提案する。
提案手法はMRIのアンダーサンプを用いた再建術の術後成績を示す。
論文 参考訳(メタデータ) (2021-02-12T18:08:14Z) - Nonconvex sparse regularization for deep neural networks and its
optimality [1.9798034349981162]
ディープニューラルネットワーク(DNN)推定器は、回帰と分類問題に対して最適な収束率を得ることができる。
スパースDNNに対する新たなペナル化推定法を提案する。
スパースペンタライズされた推定器は、様々な非パラメトリック回帰問題に対する最小収束率を適応的に達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T07:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。