論文の概要: High Fidelity Deep Learning-based MRI Reconstruction with Instance-wise
Discriminative Feature Matching Loss
- arxiv url: http://arxiv.org/abs/2108.12460v1
- Date: Fri, 27 Aug 2021 19:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:17:57.943611
- Title: High Fidelity Deep Learning-based MRI Reconstruction with Instance-wise
Discriminative Feature Matching Loss
- Title(参考訳): 高忠実度深層学習に基づくMRI画像再構成
- Authors: Ke Wang, Jonathan I Tamir, Alfredo De Goyeneche, Uri Wollner, Rafi
Brada, Stella Yu and Michael Lustig
- Abstract要約: 新たなパッチベースのunsupervised Feature Loss (UFLoss) が提案され,DLベースの再構築フレームワークのトレーニングに組み込まれている。
UFLossは、類似のインスタンスを類似の低次元特徴ベクトルにマッピングすることで、インスタンスレベルの識別を提供する。
- 参考スコア(独自算出の注目度): 7.05975926778912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To improve reconstruction fidelity of fine structures and textures
in deep learning (DL) based reconstructions.
Methods: A novel patch-based Unsupervised Feature Loss (UFLoss) is proposed
and incorporated into the training of DL-based reconstruction frameworks in
order to preserve perceptual similarity and high-order statistics. The UFLoss
provides instance-level discrimination by mapping similar instances to similar
low-dimensional feature vectors and is trained without any human annotation. By
adding an additional loss function on the low-dimensional feature space during
training, the reconstruction frameworks from under-sampled or corrupted data
can reproduce more realistic images that are closer to the original with finer
textures, sharper edges, and improved overall image quality. The performance of
the proposed UFLoss is demonstrated on unrolled networks for accelerated 2D and
3D knee MRI reconstruction with retrospective under-sampling. Quantitative
metrics including NRMSE, SSIM, and our proposed UFLoss were used to evaluate
the performance of the proposed method and compare it with others.
Results: In-vivo experiments indicate that adding the UFLoss encourages
sharper edges and more faithful contrasts compared to traditional and
learning-based methods with pure l2 loss. More detailed textures can be seen in
both 2D and 3D knee MR images. Quantitative results indicate that
reconstruction with UFLoss can provide comparable NRMSE and a higher SSIM while
achieving a much lower UFLoss value.
Conclusion: We present UFLoss, a patch-based unsupervised learned feature
loss, which allows the training of DL-based reconstruction to obtain more
detailed texture, finer features, and sharper edges with higher overall image
quality under DL-based reconstruction frameworks.
- Abstract(参考訳): 目的: 深層学習に基づく再構成における微細構造とテクスチャの再現性を向上させること。
方法:新しいパッチベースのunsupervised Feature Loss(UFLoss)を提案し,DLベースの再構築フレームワークのトレーニングに組み込むことにより,知覚的類似性と高次統計量を維持する。
UFLossは類似のインスタンスを類似の低次元特徴ベクトルにマッピングすることでインスタンスレベルの識別を提供し、人間のアノテーションなしで訓練される。
訓練中に低次元特徴空間に付加的な損失関数を追加することで、アンサンプリングまたは破損したデータからの再構成フレームワークは、より細かいテクスチャ、鋭いエッジ、全体的な画質で元のものと近い、より現実的な画像を再現することができる。
提案するUFLossの性能は,2次元および3次元膝関節のMRI再構成とリフレクションアンダーサンプリングを併用したアンロールネットワークで実証された。
nrmse, ssim, および提案するuflosを含む定量的指標を用いて, 提案手法の性能を評価し, 他の手法と比較した。
結果: in-vivo実験では,uflossを添加することで,従来のl2損失を伴う学習ベースの手法と比較して,より鋭いエッジとより忠実なコントラストが促進されることが示された。
より詳細なテクスチャは2Dと3Dの膝のMR画像で見ることができる。
UFLoss を用いた再建は, より低い値の UFLoss を達成しつつ, 同等の NRMSE と高い SSIM が得られることを示す。
結論:uflossは,dlベースの再構築のトレーニングにより,より詳細なテクスチャ,より細かな特徴,よりシャープなエッジを,dlベースの再構築フレームワークの下で高画質で得ることができるパッチベースの教師なし学習機能損失である。
関連論文リスト
- EAGLE: An Edge-Aware Gradient Localization Enhanced Loss for CT Image Reconstruction [4.6398987466719035]
本稿では,CT画像再構成の視覚的品質向上を目的とした新しい損失関数であるEagle-Lossを提案する。
Eagle-Lossは、勾配変化における局所的特徴のスペクトル分析を適用して、シャープネスと明確に定義されたエッジを強化する。
この結果から,Eagle-Lossは画像の視覚的品質を常に向上し,ネットワークアーキテクチャ全体にわたって最先端の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-03-15T21:28:06Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - Reti-Diff: Illumination Degradation Image Restoration with Retinex-based
Latent Diffusion Model [59.08821399652483]
照明劣化画像復元(IDIR)技術は、劣化した画像の視認性を改善し、劣化した照明の悪影響を軽減することを目的としている。
これらのアルゴリズムのうち、拡散モデル(DM)に基づく手法は期待できる性能を示しているが、画像レベルの分布を予測する際に、重い計算要求や画素の不一致の問題に悩まされることが多い。
我々は、コンパクトな潜在空間内でDMを活用して、簡潔な指導先を生成することを提案し、IDIRタスクのためのReti-Diffと呼ばれる新しいソリューションを提案する。
Reti-Diff は Retinex-based Latent DM (RLDM) と Retinex-Guided Transformer (RG) の2つの鍵成分からなる。
論文 参考訳(メタデータ) (2023-11-20T09:55:06Z) - Residual Back Projection With Untrained Neural Networks [1.2707050104493216]
CT(Computed tomography)における反復的再構成(IR)の枠組みについて述べる。
我々のフレームワークは、この構造情報をDIP(Deep Image Prior)として組み込んでいる。
対象関数を最小限に抑え,高精度な再構成を実現するために,未学習のU-netと新たな後方投射を併用して提案する。
論文 参考訳(メタデータ) (2022-10-26T01:58:09Z) - A Dataset-Dispersion Perspective on Reconstruction Versus Recognition in
Single-View 3D Reconstruction Networks [16.348294592961327]
我々は、この先行要因を定量化し、そのNNへの影響を研究するために、新しいデータ駆動計量である分散スコアを導入する。
提案手法は, 従来の再建スコアに加えて, 復元品質を解析し, 新たな情報を提供する主要な方法であることを示す。
論文 参考訳(メタデータ) (2021-11-30T06:33:35Z) - Structure-Preserving Image Super-Resolution [94.16949589128296]
単一画像超解像(SISR)の構造
近年の研究では、フォトリアリスティック画像の復元によるSISRの開発が進められている。
しかし、回収された画像にはいまだ望ましくない構造歪みがある。
論文 参考訳(メタデータ) (2021-09-26T08:48:27Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Reconstruction and Segmentation of Parallel MR Data using Image Domain
DEEP-SLR [25.077510176642807]
我々は、アンダーサンプリングされたPMRIデータのキャリブレーションレスリカバリのための画像ドメインディープネットワークを提案する。
分割誤りを最小限に抑えるため,提案手法を分割ネットワークと組み合わせ,エンドツーエンドで学習した。
分割誤差の低減に加えて,オーバーフィッティングの低減による再構成性能の向上も実現している。
論文 参考訳(メタデータ) (2021-02-01T21:15:59Z) - Attention Based Real Image Restoration [48.933507352496726]
深層畳み込みニューラルネットワークは、合成劣化を含む画像に対してより良い性能を発揮する。
本稿では,新しい1段ブラインド実画像復元ネットワーク(R$2$Net)を提案する。
論文 参考訳(メタデータ) (2020-04-26T04:21:49Z) - Structure-Preserving Super Resolution with Gradient Guidance [87.79271975960764]
単一画像超解像(SISR)の構造
最近のGAN(Generative Adversarial Network)による研究は、SISRの開発を促進している。
しかし、復元された画像には常に望ましくない構造歪みがある。
論文 参考訳(メタデータ) (2020-03-29T17:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。