論文の概要: Structure-Preserving Synthesis: MaskGAN for Unpaired MR-CT Translation
- arxiv url: http://arxiv.org/abs/2307.16143v1
- Date: Sun, 30 Jul 2023 06:43:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:26:51.248214
- Title: Structure-Preserving Synthesis: MaskGAN for Unpaired MR-CT Translation
- Title(参考訳): 構造保存合成:MRI-CT翻訳用マスクガン
- Authors: Minh Hieu Phan, Zhibin Liao, Johan W. Verjans, Minh-Son To
- Abstract要約: MaskGANは、自動的に抽出された粗いマスクを利用して構造整合性を強化する新しいフレームワークである。
本手法では, マスクジェネレータを用いて解剖学的構造を概説し, コンテントジェネレータを用いてCTコンテンツを合成する。
- 参考スコア(独自算出の注目度): 6.154777164692837
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Medical image synthesis is a challenging task due to the scarcity of paired
data. Several methods have applied CycleGAN to leverage unpaired data, but they
often generate inaccurate mappings that shift the anatomy. This problem is
further exacerbated when the images from the source and target modalities are
heavily misaligned. Recently, current methods have aimed to address this issue
by incorporating a supplementary segmentation network. Unfortunately, this
strategy requires costly and time-consuming pixel-level annotations. To
overcome this problem, this paper proposes MaskGAN, a novel and cost-effective
framework that enforces structural consistency by utilizing automatically
extracted coarse masks. Our approach employs a mask generator to outline
anatomical structures and a content generator to synthesize CT contents that
align with these structures. Extensive experiments demonstrate that MaskGAN
outperforms state-of-the-art synthesis methods on a challenging pediatric
dataset, where MR and CT scans are heavily misaligned due to rapid growth in
children. Specifically, MaskGAN excels in preserving anatomical structures
without the need for expert annotations. The code for this paper can be found
at
\href{https://github.com/HieuPhan33/MaskGAN}{https://github.com/HieuPhan33/MaskGAN}.
- Abstract(参考訳): 医療画像合成は、ペアデータの不足のため難しい課題である。
いくつかの方法では、不適切なデータを活用するためにcycleganを適用しているが、しばしば解剖学をシフトする不正確なマッピングを生成する。
この問題は、ソースとターゲットのモダリティのイメージが極めて不一致である場合にさらに悪化する。
近年,補足的セグメンテーションネットワークを導入してこの問題に対処する手法が提案されている。
残念ながら、この戦略にはコストと時間を要するピクセルレベルのアノテーションが必要です。
この問題を解決するために,自動抽出された粗いマスクを利用して構造整合性を実現する新しい費用効率のフレームワークMaskGANを提案する。
本手法では, マスクジェネレータを用いて解剖学的構造を概説し, コンテンツジェネレータを用いてCTコンテンツを合成する。
広範囲にわたる実験により、MaskGANは、小児の急速な成長によりMRIとCTスキャンが著しく不一致している、挑戦的な小児科のデータセット上で、最先端の合成方法よりも優れていることが示された。
具体的には、MaskGANは専門家のアノテーションを必要とせずに解剖学的構造を保存できる。
この論文のコードは \href{https://github.com/HieuPhan33/MaskGAN}{https://github.com/HieuPhan33/MaskGAN} にある。
関連論文リスト
- ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - COIN: Counterfactual inpainting for weakly supervised semantic segmentation for medical images [3.5418498524791766]
本研究は, 新規なカウンターファクト・インパインティング・アプローチ(COIN)の開発である。
COINは、予測された分類ラベルを生成モデルを用いて異常から正常に反転させる。
本手法の有効性は,エストニアのタルツ大学病院から取得したCT画像から,合成標的と実際の腎腫瘍を分離することによって実証される。
論文 参考訳(メタデータ) (2024-04-19T12:09:49Z) - GuideGen: A Text-guided Framework for Joint CT Volume and Anatomical
structure Generation [2.062999694458006]
textbfGuideGenは腹部臓器と大腸癌のCT画像と組織マスクを共同生成するパイプラインである。
我々のパイプラインは、高忠実度と可変性、および生成されたCTボリュームと組織マスクの正確な一致を保証します。
論文 参考訳(メタデータ) (2024-03-12T02:09:39Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - CL-MAE: Curriculum-Learned Masked Autoencoders [49.24994655813455]
本稿では,自己指導型再建作業の複雑さを継続的に増大させるために,マスキング戦略を更新するカリキュラム学習手法を提案する。
我々は、ImageNet上でCL-MAE(Curriculum-Learned Masked Autoencoder)をトレーニングし、MAEよりも優れた表現学習能力を示すことを示す。
論文 参考訳(メタデータ) (2023-08-31T09:13:30Z) - Focus on Content not Noise: Improving Image Generation for Nuclei
Segmentation by Suppressing Steganography in CycleGAN [1.564260789348333]
本稿では,DCTに基づく低域通過フィルタリングを用いて,ステガノグラフィーと呼ばれる隠れショートカット情報を生成画像から除去することを提案する。
我々はF1スコアの5.4ポイントをバニラサイクロンと比較して改善した。
論文 参考訳(メタデータ) (2023-08-03T13:58:37Z) - Less is More: Unsupervised Mask-guided Annotated CT Image Synthesis with
Minimum Manual Segmentations [2.1785903900600316]
医用画像合成のための新しい手法,すなわちunsupervised Mask (UM)-guided synthesisを提案する。
UM誘導合成は、忠実度、多様性、有用性が著しく高い高品質な合成画像を提供する。
論文 参考訳(メタデータ) (2023-03-19T20:30:35Z) - GD-MAE: Generative Decoder for MAE Pre-training on LiDAR Point Clouds [72.60362979456035]
Masked Autoencoders (MAE)は、大規模な3Dポイントクラウドでの探索が難しい。
我々は,周囲のコンテキストを自動的にマージするためのtextbfGenerative textbfDecoder for MAE (GD-MAE)を提案する。
提案手法の有効性を, KITTI と ONCE の2つの大規模ベンチマークで実証した。
論文 参考訳(メタデータ) (2022-12-06T14:32:55Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - METGAN: Generative Tumour Inpainting and Modality Synthesis in Light
Sheet Microscopy [4.872960046536882]
本稿では,実解剖情報を活用し,腫瘍の現実的な画像ラベル対を生成する新しい生成法を提案する。
解剖学的画像とラベルのためのデュアルパス生成器を構築し, 独立して事前学習されたセグメンタによって制約された, サイクル一貫性のある設定で学習する。
生成した画像は,既存の手法に比べて定量的に顕著に改善された。
論文 参考訳(メタデータ) (2021-04-22T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。