論文の概要: Modality-Agnostic Input Channels Enable Segmentation of Brain lesions in Multimodal MRI with Sequences Unavailable During Training
- arxiv url: http://arxiv.org/abs/2509.09290v1
- Date: Thu, 11 Sep 2025 09:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.313925
- Title: Modality-Agnostic Input Channels Enable Segmentation of Brain lesions in Multimodal MRI with Sequences Unavailable During Training
- Title(参考訳): マルチモーダルMRIにおけるトレーニング中に使用できない脳病変の分節を可能にするモダリティ非依存型入力チャネル
- Authors: Anthony P. Addison, Felix Wagner, Wentian Xu, Natalie Voets, Konstantinos Kamnitsas,
- Abstract要約: マルチモーダル脳MRIのほとんどのセグメンテーションモデルは固定モードに制限されている。
いくつかのモデルは、目に見えないモダリティに一般化するが、モダリティ固有の情報を失う可能性がある。
本研究の目的は、トレーニング中に見えない画像のモダリティを含むデータに対して推論を行うモデルを開発することである。
- 参考スコア(独自算出の注目度): 4.672822120456554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmentation models are important tools for the detection and analysis of lesions in brain MRI. Depending on the type of brain pathology that is imaged, MRI scanners can acquire multiple, different image modalities (contrasts). Most segmentation models for multimodal brain MRI are restricted to fixed modalities and cannot effectively process new ones at inference. Some models generalize to unseen modalities but may lose discriminative modality-specific information. This work aims to develop a model that can perform inference on data that contain image modalities unseen during training, previously seen modalities, and heterogeneous combinations of both, thus allowing a user to utilize any available imaging modalities. We demonstrate this is possible with a simple, thus practical alteration to the U-net architecture, by integrating a modality-agnostic input channel or pathway, alongside modality-specific input channels. To train this modality-agnostic component, we develop an image augmentation scheme that synthesizes artificial MRI modalities. Augmentations differentially alter the appearance of pathological and healthy brain tissue to create artificial contrasts between them while maintaining realistic anatomical integrity. We evaluate the method using 8 MRI databases that include 5 types of pathologies (stroke, tumours, traumatic brain injury, multiple sclerosis and white matter hyperintensities) and 8 modalities (T1, T1+contrast, T2, PD, SWI, DWI, ADC and FLAIR). The results demonstrate that the approach preserves the ability to effectively process MRI modalities encountered during training, while being able to process new, unseen modalities to improve its segmentation. Project code: https://github.com/Anthony-P-Addison/AGN-MOD-SEG
- Abstract(参考訳): 脳MRIにおける病変の検出と解析にはセグメンテーションモデルが重要である。
画像化された脳病理の種類によって、MRIスキャナーは複数の異なる画像モダリティ(コントラスト)を取得することができる。
マルチモーダル脳MRIのほとんどのセグメンテーションモデルは固定モダリティに制限されており、推論時に新しいセグメンテーションを効果的に処理することはできない。
いくつかのモデルは、目に見えないモダリティに一般化するが、識別的なモダリティ固有の情報を失う可能性がある。
本研究の目的は、トレーニング中に見つからない画像のモダリティを含むデータや、以前見られたモダリティ、および両者の不均一な組み合わせを推論し、使用可能な画像のモダリティを利用できるようにするモデルを開発することである。
我々は、モダリティに依存しない入力チャネルや経路を、モダリティ固有の入力チャネルと組み合わせることで、U-netアーキテクチャをシンプルかつ実用的な変更で実現可能であることを実証する。
そこで我々は,このモーダリティ非依存成分を訓練するために,人工MRIモダリティを合成する画像拡張スキームを開発した。
拡張は、病理組織と健康な脳組織の外観を相違して、現実的な解剖学的整合性を維持しながら、それらの間に人工的なコントラストを作り出す。
本手法は,5種類の病理(ストローク,腫瘍,外傷性脳損傷,多発性硬化症,白質肥大)と8つのモード(T1,T1+コントラスト,T2,PD,SWI,DWI,ADC,FLAIR)を含む8種類のMRIデータベースを用いて評価した。
その結果、この手法は、トレーニング中に遭遇したMRIモダリティを効果的に処理し、新しい、見えないモダリティを処理し、セグメンテーションを改善することができることを示した。
プロジェクトコード:https://github.com/Anthony-P-Addison/AGN-MOD-SEG
関連論文リスト
- A Modality-agnostic Multi-task Foundation Model for Human Brain Imaging [12.710492824928338]
我々は、人間の脳イメージングのための、モダリティに依存しないマルチタスク視覚基盤モデルBrainFMを紹介する。
BrainFMは取得した画像の外観に耐性がある。
5つの基本的な脳イメージングタスクに直接適用することができる。
論文 参考訳(メタデータ) (2025-08-30T16:15:32Z) - Multi-modal Vision Pre-training for Medical Image Analysis [11.569448567735435]
自己教師型学習は、実世界のアプリケーションに対するトレーニングデータ要求を抑えることにより、医療画像解析を大いに促進してきた。
我々は,3つの代用タスクによる新しいマルチモーダル画像事前学習を行い,相互モダリティ表現と相関の学習を容易にする。
Dice Scoreは6つのセグメンテーションベンチマークで0.28%-14.47%改善し、4つの画像分類タスクで0.65%-18.07%向上した。
論文 参考訳(メタデータ) (2024-10-14T15:12:16Z) - Enhancing Incomplete Multi-modal Brain Tumor Segmentation with Intra-modal Asymmetry and Inter-modal Dependency [31.047259264831947]
現実の一般的な問題は、様々なスキャンプロトコルや患者の状態によって、いくつかのモダリティが利用できないことである。
従来の手法では、アクセス可能なマルチモーダルの特徴を融合させ、注意機構を活用し、欠落したモダリティを合成することで、この問題に対処しようと試みてきた。
本稿では,2つの視点から深層学習に基づく脳腫瘍セグメンテーションモデルを提案する。
論文 参考訳(メタデータ) (2024-06-14T16:54:53Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans [16.93394669748461]
多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成されたインスピレーション性能にもかかわらず、マルチモーダルMRIデータは実際の臨床応用では利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍セグメント化を実現するDIGEST(Deeply SupervIsed KnowledGE tranSfer neTwork)を提案する。
論文 参考訳(メタデータ) (2022-11-15T09:01:14Z) - SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities [4.855689194518905]
MRI画像における脳腫瘍のセグメント化のためのスタイルマッチングU-Net(SMU-Net)を提案する。
我々の共同学習手法は、コンテンツとスタイルマッチング機構を用いて、全モダリティネットワークから欠落したモダリティネットワークに情報的特徴を蒸留する。
我々のスタイルマッチングモジュールは、一致した関数を学習して表現空間を適応的に再構成し、情報的特徴とテクスチャ的特徴を完全なモダリティパスから欠落モダリティパスに転送する。
論文 参考訳(メタデータ) (2022-04-06T17:55:19Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。