論文の概要: SRU-Pix2Pix: A Fusion-Driven Generator Network for Medical Image Translation with Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2601.04785v1
- Date: Thu, 08 Jan 2026 10:10:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.148747
- Title: SRU-Pix2Pix: A Fusion-Driven Generator Network for Medical Image Translation with Few-Shot Learning
- Title(参考訳): SRU-Pix2Pix:Few-Shot Learningを用いた医用画像翻訳用核融合駆動発電機ネットワーク
- Authors: Xihe Qiu, Yang Dai, Xiaoyu Tan, Sijia Li, Fenghao Sun, Lu Gan, Liang Liu,
- Abstract要約: 本稿では,Squeeze-and-Excitation Residual Networks(SEResNet)とU-Net++を統合したPix2Pixフレームワークを提案する。
提案手法は,500枚未満の撮影条件下で,一貫した構造的忠実度と画質の向上を実現する。
- 参考スコア(独自算出の注目度): 20.744922828874603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Magnetic Resonance Imaging (MRI) provides detailed tissue information, but its clinical application is limited by long acquisition time, high cost, and restricted resolution. Image translation has recently gained attention as a strategy to address these limitations. Although Pix2Pix has been widely applied in medical image translation, its potential has not been fully explored. In this study, we propose an enhanced Pix2Pix framework that integrates Squeeze-and-Excitation Residual Networks (SEResNet) and U-Net++ to improve image generation quality and structural fidelity. SEResNet strengthens critical feature representation through channel attention, while U-Net++ enhances multi-scale feature fusion. A simplified PatchGAN discriminator further stabilizes training and refines local anatomical realism. Experimental results demonstrate that under few-shot conditions with fewer than 500 images, the proposed method achieves consistent structural fidelity and superior image quality across multiple intra-modality MRI translation tasks, showing strong generalization ability. These results suggest an effective extension of Pix2Pix for medical image translation.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)は詳細な組織情報を提供するが、臨床応用は長期取得時間、高コスト、解像度制限によって制限される。
画像翻訳は、これらの制限に対処する戦略として最近注目を集めている。
Pix2Pixは医用画像翻訳に広く応用されているが、そのポテンシャルは十分に調査されていない。
本研究では,Squeeze-and-Excitation Residual Networks(SEResNet)とU-Net++を統合したPix2Pixフレームワークを提案する。
SEResNetはチャンネルアテンションを通じて重要な特徴表現を強化し、U-Net++はマルチスケールの機能融合を強化する。
簡易なPatchGAN識別器は、さらに訓練を安定させ、局所解剖学的リアリズムを洗練させる。
実験により,500枚未満の撮影条件下では,複数のモード内MRI翻訳タスクにおいて,一貫した構造的忠実度と画像品質を実現し,高い一般化能力を示した。
これらの結果から, Pix2Pixの医用画像翻訳への応用が示唆された。
関連論文リスト
- Lesion-Aware Post-Training of Latent Diffusion Models for Synthesizing Diffusion MRI from CT Perfusion [12.777937532267105]
ラテント拡散モデル(LDMs)は圧縮されたラテント空間における効率的な学習を活用する。
この効率性にはトレードオフがあり、重要なピクセルレベルの詳細を妥協させる可能性がある。
本稿では, 画像から画像への変換において, 病変対応の医用画素空間の目的を取り入れた, LDMの新たなトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-10T06:51:27Z) - Benchmarking GANs, Diffusion Models, and Flow Matching for T1w-to-T2w MRI Translation [3.9672323132974525]
I2Iアプローチは、診断品質を維持しながらMRIコントラストを合成することを目的としている。
本稿では,生成的獲得モデル,拡散モデル,フローベースマッチング技術に関する包括的なフレームワークを提案する。
結果は、フローベースのモデルはデータセットや単純なタスクに過度に適合する傾向があり、既存のメソッドにマッチしたり、超えたりするためにより多くのデータを必要とする可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-07-19T10:58:02Z) - RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [64.66825253356869]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - MRNet: Multifaceted Resilient Networks for Medical Image-to-Image Translation [1.9384004397336387]
我々は,MRI-to-CTおよびMRI-to-MRI変換における最先端の手法より優れた医用画像・画像翻訳のための新しいアーキテクチャを提案する。
このアーキテクチャは、強力なSAMイメージエンコーダを使用して、多様なデータセットから包括的なマルチスケール特徴を抽出し、解像度認識機能融合を実行する。
論文 参考訳(メタデータ) (2024-12-04T05:23:46Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
様々な計測アンサンプパターンと画像解像度に頑健な統合MRI再構成モデルを提案する。
我々のモデルは、拡散法よりも600$times$高速な推論で、最先端CNN(End-to-End VarNet)の4dBでSSIMを11%改善し、PSNRを4dB改善する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - SeCo-INR: Semantically Conditioned Implicit Neural Representations for Improved Medical Image Super-Resolution [25.078280843551322]
Inlicit Neural Representation (INR) は、信号の連続的な表現を学習する能力により、近年ディープラーニングの分野を進歩させている。
医用画像から局所的な先行情報を用いてINRを条件付ける,Semantically Conditioned INR (SeCo-INR) と呼ばれる新しいフレームワークを提案する。
本フレームワークは、医用画像のセマンティックセグメンテーション特徴の連続表現を学習し、それを用いて画像の各セマンティック領域に対して最適なINRを導出する。
論文 参考訳(メタデータ) (2024-09-02T07:45:06Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - ElixirNet: Relation-aware Network Architecture Adaptation for Medical
Lesion Detection [90.13718478362337]
本稿では,1)TruncatedRPNが正負値と負値のバランスをとること,2)Auto-lesion Blockが自動的に医療画像にカスタマイズされ,地域提案間の関係認識操作が組み込まれること,3)Relation Transferモジュールが意味的関係を組み込むこと,の3つのコンポーネントを含む新しいElixirNetを紹介した。
DeepLesionとKits19の実験では、ElixirNetの有効性が証明され、パラメータが少なくてFPNよりも感度と精度が向上した。
論文 参考訳(メタデータ) (2020-03-03T05:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。