論文の概要: K-band: Self-supervised MRI Reconstruction via Stochastic Gradient Descent over K-space Subsets
- arxiv url: http://arxiv.org/abs/2308.02958v3
- Date: Thu, 23 May 2024 12:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-26 21:02:52.402952
- Title: K-band: Self-supervised MRI Reconstruction via Stochastic Gradient Descent over K-space Subsets
- Title(参考訳): K-band: K-space サブセット上の確率勾配Descent による自己教師型MRI再構成
- Authors: Frederic Wang, Han Qi, Alfredo De Goyeneche, Reinhard Heckel, Michael Lustig, Efrat Shimron,
- Abstract要約: 我々はkバンドと呼ばれる新しい数学的枠組みを導入し、部分的かつ限定的なk空間データのみを用いてDLモデルを訓練する。
各トレーニングイテレーションでは、完全にサンプリングされたk-空間を勾配を計算する代わりに、小さなk-空間の部分のみを使用する。
生MRIデータを用いた数値実験により、kバンドは限定分解能データで訓練された他の2つの方法より優れていることが示された。
- 参考スコア(独自算出の注目度): 16.785465381844435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep learning (DL) methods are powerful for solving inverse problems, their reliance on high-quality training data is a major hurdle. This is significant in high-dimensional (dynamic/volumetric) magnetic resonance imaging (MRI), where acquisition of high-resolution fully sampled k-space data is impractical. We introduce a novel mathematical framework, dubbed k-band, that enables training DL models using only partial, limited-resolution k-space data. Specifically, we introduce training with stochastic gradient descent (SGD) over k-space subsets. In each training iteration, rather than using the fully sampled k-space for computing gradients, we use only a small k-space portion. This concept is compatible with different sampling strategies; here we demonstrate the method for k-space "bands", which have limited resolution in one dimension and can hence be acquired rapidly. We prove analytically that our method stochastically approximates the gradients computed in a fully-supervised setup, when two simple conditions are met: (i) the limited-resolution axis is chosen randomly-uniformly for every new scan, hence k-space is fully covered across the entire training set, and (ii) the loss function is weighed with a mask, derived here analytically, which facilitates accurate reconstruction of high-resolution details. Numerical experiments with raw MRI data indicate that k-band outperforms two other methods trained on limited-resolution data and performs comparably to state-of-the-art (SoTA) methods trained on high-resolution data. k-band hence obtains SoTA performance, with the advantage of training using only limited-resolution data. This work hence introduces a practical, easy-to-implement, self-supervised training framework, which involves fast acquisition and self-supervised reconstruction and offers theoretical guarantees.
- Abstract(参考訳): ディープラーニング(DL)手法は逆問題の解決には強力だが,高品質なトレーニングデータへの依存が大きなハードルとなっている。
これは高次元(ダイナミック/ボルメトリー)磁気共鳴イメージング(MRI)において重要であり、高解像度の完全サンプルk空間データの取得は現実的ではない。
我々はkバンドと呼ばれる新しい数学的枠組みを導入し、部分的かつ限定的なk空間データのみを用いてDLモデルを訓練する。
具体的には、k-空間部分集合上の確率勾配降下(SGD)によるトレーニングを導入する。
各トレーニングイテレーションでは、完全にサンプリングされたk空間を勾配の計算に使用するのではなく、小さなk空間の部分のみを使用する。
この概念は異なるサンプリング戦略と互換性があり、ここではk-空間の「バンド」の方法を示す。
我々は,2つの簡単な条件が満たされたとき,完全に教師された設定で計算された勾配を統計的に近似することが解析的に証明された。
i) 限定分解能軸は、新しいスキャン毎にランダムに一様に選択されるので、k-空間はトレーニングセット全体にわたって完全にカバーされ、
(II) 損失関数をここで解析的に導出したマスクで重み付けし, 高分解能細部を高精度に再現する。
生MRIデータを用いた数値実験により、kバンドは限定分解能データで訓練された他の2つの方法よりも優れており、高分解能データで訓練された最先端(SoTA)法と互換性があることが示された。
そのため、kバンドは、限られた解像度のデータのみを使用したトレーニングの利点を生かして、SoTAの性能を得る。
この作業は、高速な獲得と自己教師付き再構築を伴い、理論的な保証を提供する、実践的で実装が容易な自己教師型トレーニングフレームワークを導入する。
関連論文リスト
- Active Sampling of Interpolation Points to Identify Dominant Subspaces for Model Reduction [7.818201674097184]
支配的到達可能部分空間と観測可能部分空間を用いた線形構造系のモデル削減について検討する。
すべての可能な点が $-$ であるようなトレーニングセット $-$ が大きければ、これらの部分空間は多くの大規模線形系を解くことで決定できる。
本研究では,与えられたトレーニングセットから数点のみをサンプリングし,それらの部分空間を正確に推定できるアクティブサンプリング戦略を提案する。
論文 参考訳(メタデータ) (2024-09-05T19:59:14Z) - JSSL: Joint Supervised and Self-supervised Learning for MRI Reconstruction [7.018974360061121]
Joint Supervised and Self-supervised Learning (JSSL)は、ディープラーニングに基づくMRI再構成アルゴリズムのための新しいトレーニング手法である。
JSSLは、ターゲットデータセットのサブサンプルデータを使用して、自己教師付き学習設定でモデルを同時にトレーニングすることによって動作する。
目的とするデータセットとして, サブサンプリング前立腺, 心臓MRIデータを用いたJSSLの有効性を示す。
論文 参考訳(メタデータ) (2023-11-27T14:23:36Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Angular upsampling in diffusion MRI using contextual HemiHex
sub-sampling in q-space [0.0]
データを関連するコンテキストに組み込むことで、AIモデルが後部を推測するための最大事前情報が提供されることを保証することが重要である。
本稿では,q空間幾何のトレーニングデータサンプリングに好意的に取り組むため,HemiHexサブサンプリングを提案する。
提案手法は, 未知の q-空間を推定し, 先行研究の限界に対処する幾何的に最適化された回帰手法である。
論文 参考訳(メタデータ) (2022-11-01T03:13:07Z) - Federated Representation Learning via Maximal Coding Rate Reduction [109.26332878050374]
本稿では,複数のクライアントに分散したデータセットから低次元表現を学習する手法を提案する。
提案手法はFLOWと呼ばれ, MCR2を選択の対象とし, その結果, クラス間判別とクラス内圧縮の両方が可能な表現が得られた。
論文 参考訳(メタデータ) (2022-10-01T15:43:51Z) - A Unifying Multi-sampling-ratio CS-MRI Framework With Two-grid-cycle
Correction and Geometric Prior Distillation [7.643154460109723]
本稿では,モデルベースと深層学習に基づく手法の利点を融合して,深層展開型マルチサンプリング比CS-MRIフレームワークを提案する。
マルチグリッドアルゴリズムにインスパイアされ、まずCS-MRIに基づく最適化アルゴリズムを補正蒸留方式に組み込む。
各段の圧縮サンプリング比から適応的なステップ長と雑音レベルを学習するために条件モジュールを用いる。
論文 参考訳(メタデータ) (2022-05-14T13:36:27Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - A Fast Parallel Tensor Decomposition with Optimal Stochastic Gradient
Descent: an Application in Structural Damage Identification [1.536989504296526]
本稿では, CANDECOMP/PARAFAC (CP) 分解を mathbbR I_1 times dots times I_N $ で並列化する新しいアルゴリズム FP-CPD を提案する。
論文 参考訳(メタデータ) (2021-11-04T05:17:07Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。