論文の概要: Accelerated MRI with Un-trained Neural Networks
- arxiv url: http://arxiv.org/abs/2007.02471v3
- Date: Tue, 27 Apr 2021 18:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:06:06.136192
- Title: Accelerated MRI with Un-trained Neural Networks
- Title(参考訳): 未学習ニューラルネットワークを用いた加速度MRI
- Authors: Mohammad Zalbagi Darestani and Reinhard Heckel
- Abstract要約: トレーニングなしニューラルネットワークを用いた高速化MRIにおける再構成問題に対処する。
本稿では,Deep Decoderのバリエーションに基づいて,高度に最適化された未学習リカバリ手法を提案する。
トレーニングされていないアルゴリズムはベースライントレーニングされたニューラルネットワークと同じような性能を達成するが、最先端トレーニングされたネットワークはトレーニングされていないニューラルネットワークよりも優れる。
- 参考スコア(独自算出の注目度): 29.346778609548995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) are highly effective for image
reconstruction problems. Typically, CNNs are trained on large amounts of
training images. Recently, however, un-trained CNNs such as the Deep Image
Prior and Deep Decoder have achieved excellent performance for image
reconstruction problems such as denoising and inpainting, \emph{without using
any training data}. Motivated by this development, we address the
reconstruction problem arising in accelerated MRI with un-trained neural
networks. We propose a highly optimized un-trained recovery approach based on a
variation of the Deep Decoder and show that it significantly outperforms other
un-trained methods, in particular sparsity-based classical compressed sensing
methods and naive applications of un-trained neural networks. We also compare
performance (both in terms of reconstruction accuracy and computational cost)
in an ideal setup for trained methods, specifically on the fastMRI dataset,
where the training and test data come from the same distribution. We find that
our un-trained algorithm achieves similar performance to a baseline trained
neural network, but a state-of-the-art trained network outperforms the
un-trained one. Finally, we perform a comparison on a non-ideal setup where the
train and test distributions are slightly different, and find that our
un-trained method achieves similar performance to a state-of-the-art
accelerated MRI reconstruction method.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は画像再構成問題に非常に有効である。
通常、CNNは大量のトレーニングイメージに基づいて訓練される。
しかし,近年,Deep Image PriorやDeep Decoderのような未学習のCNNは,デノナイズやインペイントなどの画像再構成問題に対して,任意のトレーニングデータを用いて \emph{without という優れた性能を実現している。
この発展を動機として、未学習ニューラルネットワークを用いた加速MRIにおける再構成問題に対処する。
本稿では,ディープデコーダの変動に基づく高度に最適化された非トレーニング回復手法を提案し,非トレーニングニューラルネットワークの非トレーニング手法,特にsparsityに基づく古典的圧縮センシング手法,ナイーブ応用において,他の非トレーニング手法を大きく上回ることを示す。
また、トレーニングされたメソッド、特に、トレーニングデータとテストデータが同じディストリビューションから得られるfastmriデータセットの理想的なセットアップにおけるパフォーマンス(再構成精度と計算コストの両方の観点から)を比較する。
トレーニングされていないアルゴリズムはベースライントレーニングニューラルネットワークと同じような性能を達成するが、最先端トレーニングされたネットワークはトレーニングされていないニューラルネットワークよりも優れる。
最後に, 列車分布と試験分布が若干異なる非理想的構成で比較を行い, 未訓練の手法が最先端のmri再構成法と同等の性能を達成できることを見いだした。
関連論文リスト
- Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - Comparison between layer-to-layer network training and conventional
network training using Deep Convolutional Neural Networks [0.6853165736531939]
畳み込みニューラルネットワーク(CNN)は、データから特徴を抽出する効果のため、様々なアプリケーションで広く利用されている。
層間学習法を提案し,その性能を従来の訓練法と比較する。
実験の結果, 層間学習法は両モデルの従来の訓練法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-27T14:29:18Z) - Reconstructing Training Data from Trained Neural Networks [42.60217236418818]
いくつかのケースでは、トレーニングデータのかなりの部分が、実際にトレーニングされたニューラルネットワーク分類器のパラメータから再構成可能であることを示す。
本稿では,勾配に基づくニューラルネットワークの学習における暗黙バイアスに関する最近の理論的結果から,新たな再構成手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:35:16Z) - Neural Maximum A Posteriori Estimation on Unpaired Data for Motion
Deblurring [87.97330195531029]
本稿では、ニューラルネットワークをトレーニングし、失明したデータから視覚情報や鋭いコンテンツを復元するためのニューラルネットワークの最大Aポストエリオリ(NeurMAP)推定フレームワークを提案する。
提案されたNeurMAPは、既存のデブロアリングニューラルネットワークに対するアプローチであり、未使用データセット上のイメージデブロアリングネットワークのトレーニングを可能にする最初のフレームワークである。
論文 参考訳(メタデータ) (2022-04-26T08:09:47Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - An End-To-End-Trainable Iterative Network Architecture for Accelerated
Radial Multi-Coil 2D Cine MR Image Reconstruction [4.233498905999929]
我々は,複数のレシーバコイルを用いた加速2次元放射状シネMRIの画像再構成のためのCNNアーキテクチャを提案する。
提案手法を学習的・非学習的正規化手法と比較し,提案手法を他のよく知られた再構築手法と比較する。
論文 参考訳(メタデータ) (2021-02-01T11:42:04Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。