論文の概要: Med-K2N: Flexible K-to-N Modality Translation for Medical Image Synthesis
- arxiv url: http://arxiv.org/abs/2510.02815v1
- Date: Fri, 03 Oct 2025 08:47:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.318173
- Title: Med-K2N: Flexible K-to-N Modality Translation for Medical Image Synthesis
- Title(参考訳): Med-K2N:医療画像合成のための柔軟なK-to-Nモダリティ変換
- Authors: Feng Yuan, Yifan Gao, Yuehua Ye, Haoyue Li, Xin Gao,
- Abstract要約: クロスモーダルな医用画像合成研究は、臨床診断を支援するために利用可能な画像から欠落した画像のモダリティを再構築することに焦点を当てている。
様々な目的タスクに対する異なるモダリティの不均一な寄与をモデル化するにはどうすればよいか?
マルチアウトプット生成におけるモーダリティアイデンティティの整合性を維持するには?
- 参考スコア(独自算出の注目度): 13.589690091116802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-modal medical image synthesis research focuses on reconstructing missing imaging modalities from available ones to support clinical diagnosis. Driven by clinical necessities for flexible modality reconstruction, we explore K to N medical generation, where three critical challenges emerge: How can we model the heterogeneous contributions of different modalities to various target tasks? How can we ensure fusion quality control to prevent degradation from noisy information? How can we maintain modality identity consistency in multi-output generation? Driven by these clinical necessities, and drawing inspiration from SAM2's sequential frame paradigm and clinicians' progressive workflow of incrementally adding and selectively integrating multi-modal information, we treat multi-modal medical data as sequential frames with quality-driven selection mechanisms. Our key idea is to "learn" adaptive weights for each modality-task pair and "memorize" beneficial fusion patterns through progressive enhancement. To achieve this, we design three collaborative modules: PreWeightNet for global contribution assessment, ThresholdNet for adaptive filtering, and EffiWeightNet for effective weight computation. Meanwhile, to maintain modality identity consistency, we propose the Causal Modality Identity Module (CMIM) that establishes causal constraints between generated images and target modality descriptions using vision-language modeling. Extensive experimental results demonstrate that our proposed Med-K2N outperforms state-of-the-art methods by significant margins on multiple benchmarks. Source code is available.
- Abstract(参考訳): クロスモーダルな医用画像合成研究は、臨床診断を支援するために利用可能な画像から欠落した画像のモダリティを再構築することに焦点を当てている。
フレキシブルなモダリティ再構築のための臨床的必要条件によって、我々はK to Nの医療生成を探求し、3つの重要な課題が浮かび上がった。
ノイズ情報による劣化を防止するために、どうやって核融合品質制御を確保できるのか?
マルチアウトプット生成におけるモーダリティアイデンティティの整合性を維持するには?
これらの臨床ニーズによって駆動され、SAM2のシーケンシャルフレームパラダイムや、マルチモーダル情報を段階的に追加し、選択的に統合するクリニックのプログレッシブワークフローからインスピレーションを得て、我々は、品質駆動選択機構を備えたシーケンシャルフレームとして、マルチモーダル医療データを扱います。
私たちのキーとなるアイデアは、各モダリティとタスクのペアに対して適応重みを"学習"し、プログレッシブエンハンスメントを通じて有益な融合パターンを"記憶"することです。
そこで我々は,グローバルコントリビューション評価のためのPreWeightNet,適応フィルタリングのためのThresholdNet,効果的な重み計算のためのEffiWeightNetの3つの協調モジュールを設計した。
一方、モーダルアイデンティティの整合性を維持するために、視覚言語モデルを用いて生成した画像と対象モダリティ記述の因果的制約を確立する因果的モダリティ識別モジュール(CMIM)を提案する。
Med-K2Nは,複数のベンチマークにおいて,最先端の手法よりも高い性能を示した。
ソースコードは利用可能である。
関連論文リスト
- MedSeqFT: Sequential Fine-tuning Foundation Models for 3D Medical Image Segmentation [55.37355146924576]
MedSeqFTは、医用画像解析のためのシーケンシャルな微調整フレームワークである。
事前訓練されたモデルを新しいタスクに適応させ、表現能力を改善する。
最先端の微調整戦略を一貫して上回ります。
論文 参考訳(メタデータ) (2025-09-07T15:22:53Z) - ClinicalFMamba: Advancing Clinical Assessment using Mamba-based Multimodal Neuroimaging Fusion [7.0879234284391455]
マルチモーダル医療画像融合は、診断精度と治療計画を高めるために、異なる画像モダリティからの相補的な情報を統合する。
CNNは局所的な特徴抽出に優れるが、グローバルなコンテキストを効果的にモデル化するのは難しい。
変換器は2次計算の複雑さを犠牲にしてより優れた長距離モデリングを実現する。
最近のステートスペースモデル(SSM)は有望な代替手段を提供する。
我々は,新しいエンドツーエンドCNN-MambaハイブリッドアーキテクチャであるCityicFMambaを提案する。
論文 参考訳(メタデータ) (2025-08-05T02:25:53Z) - Multi-modal Contrastive Learning for Tumor-specific Missing Modality Synthesis [1.4132765964347058]
臨床環境での高品質なマルチモーダルMRIは、時間的制約、高コスト、患者の運動アーチファクトが原因で困難である。
PLAVEは,腫瘍領域に焦点をあてたマルチモーダルコントラスト学習を統合したMRIの再生モデルを構築した。
脳MR画像合成の課題で得られた結果は、提案モデルが欠落したモダリティを生成するのに優れていることを示している。
論文 参考訳(メタデータ) (2025-02-26T18:34:58Z) - MRGen: Segmentation Data Engine for Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では,データ合成における生成モデルの利用について検討する。
本稿では,テキストプロンプトとセグメンテーションマスクを条件とした医用画像合成のためのデータエンジンMRGenを提案する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Unified Multi-Modal Image Synthesis for Missing Modality Imputation [23.681228202899984]
そこで本研究では,モダリティの欠如を抑えるために,新しいマルチモーダル画像合成法を提案する。
提案手法は, 各種合成タスクの処理に有効であり, 従来の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-11T16:59:15Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - A Learnable Variational Model for Joint Multimodal MRI Reconstruction
and Synthesis [4.056490719080639]
マルチモーダルMRIの関節再構成と合成のための新しいディープラーニングモデルを提案する。
本モデルの出力は、ソースのモダリティの再構成画像と、ターゲットのモダリティで合成された高品質な画像を含む。
論文 参考訳(メタデータ) (2022-04-08T01:35:19Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。