論文の概要: An Optimization-Based Meta-Learning Model for MRI Reconstruction with
Diverse Dataset
- arxiv url: http://arxiv.org/abs/2110.00715v1
- Date: Sat, 2 Oct 2021 03:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 04:42:15.144222
- Title: An Optimization-Based Meta-Learning Model for MRI Reconstruction with
Diverse Dataset
- Title(参考訳): 複数データセットを用いたMRI再構成のための最適化型メタラーニングモデル
- Authors: Wanyu Bian, Yunmei Chen, Xiaojing Ye, Qingchao Zhang
- Abstract要約: メタラーニングフレームワークを用いた一般化可能なMRI再構成モデルを構築した。
提案するネットワークは,学習者適応モデルを用いて正規化関数を学習する。
メタトレーニング後および半減期における未確認課題の即時訓練の結果を検証した。
- 参考スコア(独自算出の注目度): 4.9259403018534496
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: This work aims at developing a generalizable MRI reconstruction
model in the meta-learning framework. The standard benchmarks in meta-learning
are challenged by learning on diverse task distributions. The proposed network
learns the regularization function in a variational model and reconstructs MR
images with various under-sampling ratios or patterns that may or may not be
seen in the training data by leveraging a heterogeneous dataset. Methods: We
propose an unrolling network induced by learnable optimization algorithms (LOA)
for solving our nonconvex nonsmooth variational model for MRI reconstruction.
In this model, the learnable regularization function contains a task-invariant
common feature encoder and task-specific learner represented by a shallow
network. To train the network we split the training data into two parts:
training and validation, and introduce a bilevel optimization algorithm. The
lower-level optimization trains task-invariant parameters for the feature
encoder with fixed parameters of the task-specific learner on the training
dataset, and the upper-level optimizes the parameters of the task-specific
learner on the validation dataset. Results: The average PSNR increases
significantly compared to the network trained through conventional supervised
learning on the seen CS ratios. We test the result of quick adaption on the
unseen tasks after meta-training and in the meanwhile saving half of the
training time; Conclusion: We proposed a meta-learning framework consisting of
the base network architecture, design of regularization, and bi-level
optimization-based training. The network inherits the convergence property of
the LOA and interpretation of the variational model. The generalization ability
is improved by the designated regularization and bilevel optimization-based
training algorithm.
- Abstract(参考訳): 目的: 本研究の目的は, メタラーニングフレームワークにおけるmri再構成モデルの構築である。
メタラーニングの標準ベンチマークは、多様なタスク分布の学習によって挑戦される。
提案するネットワークは,変分モデルで正規化関数を学習し,異種データセットを利用してトレーニングデータに現れる可能性のある様々なアンダーサンプリング比やパターンでMR画像を再構成する。
方法: 学習可能最適化アルゴリズム(LOA)により誘導される非凸非平滑変動モデルのMRI再構成のためのアンローリングネットワークを提案する。
このモデルでは、学習可能な正規化関数は、浅層ネットワークで表されるタスク不変共通特徴エンコーダとタスク固有学習器を含む。
ネットワークをトレーニングするために、トレーニングデータをトレーニングと検証の2つに分割し、バイレベル最適化アルゴリズムを導入します。
低レベル最適化は、トレーニングデータセット上でタスク固有学習者の固定パラメータを持つ特徴エンコーダのタスク不変パラメータを訓練し、上位レベルは検証データセット上のタスク固有学習者のパラメータを最適化する。
結果: CS比の平均PSNRは, 従来の教師あり学習を通して学習したネットワークと比較して有意に増加した。
結論:我々は,ベースネットワークアーキテクチャ,正規化の設計,二段階最適化に基づくトレーニングからなるメタ学習フレームワークを提案した。
ネットワークはLOAの収束特性と変分モデルの解釈を継承する。
指定正規化および二段階最適化に基づくトレーニングアルゴリズムにより一般化能力が向上する。
関連論文リスト
- Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Meta Feature Modulator for Long-tailed Recognition [37.90990378643794]
本稿では,長期訓練データとバランスの取れたメタデータの違いを表現学習の観点からモデル化するメタラーニングフレームワークを提案する。
さらに、変調パラメータの生成を誘導するモジュレータネットワークを設計し、そのようなメタラーナは、他の長い尾を持つデータセットの分類ネットワークのトレーニングに容易に適応することができる。
論文 参考訳(メタデータ) (2020-08-08T03:19:03Z) - A Differential Game Theoretic Neural Optimizer for Training Residual
Networks [29.82841891919951]
本稿では、残差接続と畳み込み層の両方を受け入れる一般化微分動的プログラミング(DDP)ニューラルアーキテクチャを提案する。
得られた最適制御表現は、トレーニング残余ネットワークを、状態拡張システム上での協調的軌道最適化と解釈できるゲーム論的視点を許容する。
論文 参考訳(メタデータ) (2020-07-17T10:19:17Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z) - A Multi-Scale Tensor Network Architecture for Classification and
Regression [0.0]
テンソルネットワークを用いた教師あり学習のためのアルゴリズムを提案する。
我々はウェーブレット変換の連続を通して粗粒化によってデータを前処理するステップを採用する。
ネットワークを通しての細粒化がモデルの初期化にどのように利用されるかを示す。
論文 参考訳(メタデータ) (2020-01-22T21:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。