論文の概要: MRGen: Segmentation Data Engine For Underrepresented MRI Modalities
- arxiv url: http://arxiv.org/abs/2412.04106v2
- Date: Wed, 12 Mar 2025 11:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:37:24.246924
- Title: MRGen: Segmentation Data Engine For Underrepresented MRI Modalities
- Title(参考訳): MRGen: 表現不足のMRIモダリティのためのセグメンテーションデータエンジン
- Authors: Haoning Wu, Ziheng Zhao, Ya Zhang, Yanfeng Wang, Weidi Xie,
- Abstract要約: 稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
- 参考スコア(独自算出の注目度): 59.61465292965639
- License:
- Abstract: Training medical image segmentation models for rare yet clinically significant imaging modalities is challenging due to the scarcity of annotated data, and manual mask annotations can be costly and labor-intensive to acquire. This paper investigates leveraging generative models to synthesize training data, to train segmentation models for underrepresented modalities, particularly on annotation-scarce MRI. Concretely, our contributions are threefold: (i) we introduce MRGen-DB, a large-scale radiology image-text dataset comprising extensive samples with rich metadata, including modality labels, attributes, regions, and organs information, with a subset having pixelwise mask annotations; (ii) we present MRGen, a diffusion-based data engine for controllable medical image synthesis, conditioned on text prompts and segmentation masks. MRGen can generate realistic images for diverse MRI modalities lacking mask annotations, facilitating segmentation training in low-source domains; (iii) extensive experiments across multiple modalities demonstrate that MRGen significantly improves segmentation performance on unannotated modalities by providing high-quality synthetic data. We believe that our method bridges a critical gap in medical image analysis, extending segmentation capabilities to scenarios that are challenging to acquire manual annotations.
- Abstract(参考訳): 稀ながら臨床的に重要な画像モダリティのための医療画像セグメンテーションモデルの訓練は、注釈付きデータの不足により困難であり、手動マスクアノテーションは、取得に費用と労力がかかる可能性がある。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティのためのセグメンテーションモデルを訓練する。
具体的には、私たちの貢献は3倍です。
(i)MRGen-DBは,多彩なメタデータと多彩なメタデータからなる大規模放射線学画像テキストデータセットであり,その中にモダリティラベル,属性,領域,臓器情報,および画素単位のマスクアノテーションを持つサブセットを紹介する。
MRGenは,テキストプロンプトやセグメンテーションマスクに条件付けされた医用画像合成のための拡散型データエンジンである。
MRGenは、マスクアノテーションを欠いた多彩なMRIモダリティのための現実的な画像を生成することができ、低ソース領域でのセグメンテーショントレーニングを容易にする。
3) MRGenは, 高品質な合成データを提供することにより, 注釈のないモダリティのセグメンテーション性能を著しく向上することを示した。
本手法は医用画像解析において重要なギャップを埋めるものであり,手作業によるアノテーション取得が困難なシナリオにセグメンテーション機能を拡張できると考えている。
関連論文リスト
- MedFuncta: Modality-Agnostic Representations Based on Efficient Neural Fields [1.2289361708127877]
我々は、ニューラルネットワークに基づくモダリティに依存しない連続データ表現であるMedFunctaを紹介する。
医療信号の冗長性を利用して、単一インスタンスから大規模データセットにニューラルネットワークをスケールする方法を実証する。
我々は、この方向の研究を促進するために、 > 550kの注釈付きニューラルネットワークの大規模なデータセットをリリースする。
論文 参考訳(メタデータ) (2025-02-20T09:38:13Z) - 3D MRI Synthesis with Slice-Based Latent Diffusion Models: Improving Tumor Segmentation Tasks in Data-Scarce Regimes [2.8498944632323755]
本稿では,ボリュームデータ生成の複雑さに対処するスライスに基づく遅延拡散アーキテクチャを提案する。
この手法は,医療用画像と関連するマスクの同時分布モデルを拡張し,データスカース体制下での同時生成を可能にする。
構造は, 大きさ, 形状, 相対位置などの腫瘍特性によって調節できるため, 腫瘍の多様性は様々である。
論文 参考訳(メタデータ) (2024-06-08T09:53:45Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Cross-Modal Causal Intervention for Medical Report Generation [109.83549148448469]
医療報告生成(MRG)は、コンピュータ支援診断と治療指導に不可欠である。
視覚的および言語的バイアスによって引き起こされる画像テキストデータ内の素早い相関のため、病変領域を確実に記述した正確なレポートを生成することは困難である。
本稿では,視覚分解モジュール (VDM) と言語分解モジュール (LDM) からなるMRGのための新しい視覚言語因果干渉 (VLCI) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。