論文の概要: An Optimization-Based Meta-Learning Model for MRI Reconstruction with
Diverse Dataset
- arxiv url: http://arxiv.org/abs/2110.00715v1
- Date: Sat, 2 Oct 2021 03:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 04:42:15.144222
- Title: An Optimization-Based Meta-Learning Model for MRI Reconstruction with
Diverse Dataset
- Title(参考訳): 複数データセットを用いたMRI再構成のための最適化型メタラーニングモデル
- Authors: Wanyu Bian, Yunmei Chen, Xiaojing Ye, Qingchao Zhang
- Abstract要約: メタラーニングフレームワークを用いた一般化可能なMRI再構成モデルを構築した。
提案するネットワークは,学習者適応モデルを用いて正規化関数を学習する。
メタトレーニング後および半減期における未確認課題の即時訓練の結果を検証した。
- 参考スコア(独自算出の注目度): 4.9259403018534496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: This work aims at developing a generalizable MRI reconstruction
model in the meta-learning framework. The standard benchmarks in meta-learning
are challenged by learning on diverse task distributions. The proposed network
learns the regularization function in a variational model and reconstructs MR
images with various under-sampling ratios or patterns that may or may not be
seen in the training data by leveraging a heterogeneous dataset. Methods: We
propose an unrolling network induced by learnable optimization algorithms (LOA)
for solving our nonconvex nonsmooth variational model for MRI reconstruction.
In this model, the learnable regularization function contains a task-invariant
common feature encoder and task-specific learner represented by a shallow
network. To train the network we split the training data into two parts:
training and validation, and introduce a bilevel optimization algorithm. The
lower-level optimization trains task-invariant parameters for the feature
encoder with fixed parameters of the task-specific learner on the training
dataset, and the upper-level optimizes the parameters of the task-specific
learner on the validation dataset. Results: The average PSNR increases
significantly compared to the network trained through conventional supervised
learning on the seen CS ratios. We test the result of quick adaption on the
unseen tasks after meta-training and in the meanwhile saving half of the
training time; Conclusion: We proposed a meta-learning framework consisting of
the base network architecture, design of regularization, and bi-level
optimization-based training. The network inherits the convergence property of
the LOA and interpretation of the variational model. The generalization ability
is improved by the designated regularization and bilevel optimization-based
training algorithm.
- Abstract(参考訳): 目的: 本研究の目的は, メタラーニングフレームワークにおけるmri再構成モデルの構築である。
メタラーニングの標準ベンチマークは、多様なタスク分布の学習によって挑戦される。
提案するネットワークは,変分モデルで正規化関数を学習し,異種データセットを利用してトレーニングデータに現れる可能性のある様々なアンダーサンプリング比やパターンでMR画像を再構成する。
方法: 学習可能最適化アルゴリズム(LOA)により誘導される非凸非平滑変動モデルのMRI再構成のためのアンローリングネットワークを提案する。
このモデルでは、学習可能な正規化関数は、浅層ネットワークで表されるタスク不変共通特徴エンコーダとタスク固有学習器を含む。
ネットワークをトレーニングするために、トレーニングデータをトレーニングと検証の2つに分割し、バイレベル最適化アルゴリズムを導入します。
低レベル最適化は、トレーニングデータセット上でタスク固有学習者の固定パラメータを持つ特徴エンコーダのタスク不変パラメータを訓練し、上位レベルは検証データセット上のタスク固有学習者のパラメータを最適化する。
結果: CS比の平均PSNRは, 従来の教師あり学習を通して学習したネットワークと比較して有意に増加した。
結論:我々は,ベースネットワークアーキテクチャ,正規化の設計,二段階最適化に基づくトレーニングからなるメタ学習フレームワークを提案した。
ネットワークはLOAの収束特性と変分モデルの解釈を継承する。
指定正規化および二段階最適化に基づくトレーニングアルゴリズムにより一般化能力が向上する。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Transfer Learning with Reconstruction Loss [12.906500431427716]
本稿では,モデルに新たな再構築段階を追加することで,新たなモデル学習手法を提案する。
提案手法は、学習した特徴を一般化し、伝達しやすくし、効率的な伝達学習に容易に利用できる。
数値シミュレーションでは、MNIST手書き桁の転送学習、デバイス間無線ネットワークの電力割り当て、複数入出力ネットワークのダウンリンクビームフォーミングとローカライゼーションの3つの応用が研究されている。
論文 参考訳(メタデータ) (2024-03-31T00:22:36Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Task Aware Modulation using Representation Learning: An Approach for Few Shot Learning in Environmental Systems [15.40286222692196]
TAM-RLは異種システムにおける少数ショット学習のための新しいフレームワークである。
2つの実環境データセット上でのTAM-RLの評価を行った。
論文 参考訳(メタデータ) (2023-10-07T07:55:22Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Meta Feature Modulator for Long-tailed Recognition [37.90990378643794]
本稿では,長期訓練データとバランスの取れたメタデータの違いを表現学習の観点からモデル化するメタラーニングフレームワークを提案する。
さらに、変調パラメータの生成を誘導するモジュレータネットワークを設計し、そのようなメタラーナは、他の長い尾を持つデータセットの分類ネットワークのトレーニングに容易に適応することができる。
論文 参考訳(メタデータ) (2020-08-08T03:19:03Z) - A Differential Game Theoretic Neural Optimizer for Training Residual
Networks [29.82841891919951]
本稿では、残差接続と畳み込み層の両方を受け入れる一般化微分動的プログラミング(DDP)ニューラルアーキテクチャを提案する。
得られた最適制御表現は、トレーニング残余ネットワークを、状態拡張システム上での協調的軌道最適化と解釈できるゲーム論的視点を許容する。
論文 参考訳(メタデータ) (2020-07-17T10:19:17Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。