論文の概要: MRNet: Multifaceted Resilient Networks for Medical Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2412.03039v1
- Date: Wed, 04 Dec 2024 05:23:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:21.236195
- Title: MRNet: Multifaceted Resilient Networks for Medical Image-to-Image Translation
- Title(参考訳): MRNet:医療画像から画像への変換のための多面的レジリエントネットワーク
- Authors: Hyojeong Lee, Youngwan Jo, Inpyo Hong, Sanghyun Park,
- Abstract要約: 我々は,MRI-to-CTおよびMRI-to-MRI変換における最先端の手法より優れた医用画像・画像翻訳のための新しいアーキテクチャを提案する。
このアーキテクチャは、強力なSAMイメージエンコーダを使用して、多様なデータセットから包括的なマルチスケール特徴を抽出し、解像度認識機能融合を実行する。
- 参考スコア(独自算出の注目度): 1.9384004397336387
- License:
- Abstract: We propose a Multifaceted Resilient Network(MRNet), a novel architecture developed for medical image-to-image translation that outperforms state-of-the-art methods in MRI-to-CT and MRI-to-MRI conversion. MRNet leverages the Segment Anything Model (SAM) to exploit frequency-based features to build a powerful method for advanced medical image transformation. The architecture extracts comprehensive multiscale features from diverse datasets using a powerful SAM image encoder and performs resolution-aware feature fusion that consistently integrates U-Net encoder outputs with SAM-derived features. This fusion optimizes the traditional U-Net skip connection while leveraging transformer-based contextual analysis. The translation is complemented by an innovative dual-mask configuration incorporating dynamic attention patterns and a specialized loss function designed to address regional mapping mismatches, preserving both the gross anatomy and tissue details. Extensive validation studies have shown that MRNet outperforms state-of-the-art architectures, particularly in maintaining anatomical fidelity and minimizing translation artifacts.
- Abstract(参考訳): MRI-to-CTおよびMRI-to-MRI変換における最先端の手法より優れた医用画像・画像翻訳のための新しいアーキテクチャであるMultifaceted Resilient Network(MRNet)を提案する。
MRNetはSegment Anything Model(SAM)を活用して、周波数ベースの機能を活用して、高度な医用画像変換のための強力な方法を構築する。
このアーキテクチャは、強力なSAMイメージエンコーダを使用して多様なデータセットから包括的なマルチスケール特徴を抽出し、U-Netエンコーダ出力をSAM起源の特徴と一貫して統合する分解能対応機能融合を実行する。
この融合は、トランスフォーマーベースのコンテキスト分析を活用しながら、従来のU-Netスキップ接続を最適化する。
この翻訳は、ダイナミックな注意パターンと、局所的なマッピングミスマッチに対処するために設計された特殊な損失関数を取り入れた革新的な二重マスク構成によって補完され、全体解剖学と組織の詳細の両方を保存している。
大規模な検証研究により、MRNetは最先端のアーキテクチャ、特に解剖学的な忠実さの維持と翻訳アーティファクトの最小化に優れていたことが示されている。
関連論文リスト
- SAM-I2I: Unleash the Power of Segment Anything Model for Medical Image Translation [0.9626666671366836]
SAM-I2Iは,Segment Anything Model 2 (SAM2) に基づく新しい画像から画像への変換フレームワークである。
マルチコントラストMRIデータセットを用いた実験により、SAM-I2Iは最先端の手法より優れており、より効率的かつ正確な医用画像翻訳を提供することが示された。
論文 参考訳(メタデータ) (2024-11-13T03:30:10Z) - Model-Guided Multi-Contrast Deep Unfolding Network for MRI
Super-resolution Reconstruction [68.80715727288514]
MRI観察行列を用いて,反復型MGDUNアルゴリズムを新しいモデル誘導深部展開ネットワークに展開する方法を示す。
本稿では,医療画像SR再構成のためのモデルガイド型解釈可能なDeep Unfolding Network(MGDUN)を提案する。
論文 参考訳(メタデータ) (2022-09-15T03:58:30Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - HUMUS-Net: Hybrid unrolled multi-scale network architecture for
accelerated MRI reconstruction [38.0542877099235]
HUMUS-Netは、暗黙のバイアスと畳み込みの効率を、無ロールでマルチスケールのネットワークにおけるTransformerブロックのパワーと組み合わせたハイブリッドアーキテクチャである。
我々のネットワークは、最も広く公開されているMRIデータセットである高速MRIデータセット上で、新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2022-03-15T19:26:29Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - ResViT: Residual vision transformers for multi-modal medical image
synthesis [0.0]
本稿では、畳み込み演算子の局所的精度と視覚変換器の文脈的感度を組み合わせ、医用画像合成のための新しい生成逆変換手法ResViTを提案する。
以上の結果から,ResViTと競合する手法の質的観察と定量化の両面での優位性が示唆された。
論文 参考訳(メタデータ) (2021-06-30T12:57:37Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Deep Parallel MRI Reconstruction Network Without Coil Sensitivities [4.559089047554929]
並列MRI(pMRI)における高速画像再構成のための頑健な近位勾配スキームをデータからトレーニングした正規化関数にマッピングすることにより,新しいディープニューラルネットワークアーキテクチャを提案する。
提案するネットワークは,不完全なpMRIデータからのマルチコイル画像と均一なコントラストとを適応的に組み合わせることを学び,非線形エンコーダに渡されて画像のスパース特徴を効率的に抽出する。
論文 参考訳(メタデータ) (2020-08-04T08:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。