論文の概要: Manipulating Medical Image Translation with Manifold Disentanglement
- arxiv url: http://arxiv.org/abs/2011.13615v1
- Date: Fri, 27 Nov 2020 09:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:27:38.539976
- Title: Manipulating Medical Image Translation with Manifold Disentanglement
- Title(参考訳): Manifold Disentanglement を用いた医用画像翻訳の操作
- Authors: Siyu Liu, Jason A. Dowling, Craig Engstrom, Peter B. Greer, Stuart
Crozier, Shekhar S. Chandra
- Abstract要約: 医用画像翻訳のためのMDGAN(Manifold Disentanglement Generative Adversarial Network)を提案する。
MDGANは、ドメイン不変の特徴とドメイン固有の特徴を明示的に切り離し、双方を個別に制御する。
MR多様体クラスタを横切る経路をトラバースすることで、入力から形状情報を保持しながら目標出力を操作できることが示される。
- 参考スコア(独自算出の注目度): 5.301506608482977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image translation (e.g. CT to MR) is a challenging task as it
requires I) faithful translation of domain-invariant features (e.g. shape
information of anatomical structures) and II) realistic synthesis of
target-domain features (e.g. tissue appearance in MR). In this work, we propose
Manifold Disentanglement Generative Adversarial Network (MDGAN), a novel image
translation framework that explicitly models these two types of features. It
employs a fully convolutional generator to model domain-invariant features, and
it uses style codes to separately model target-domain features as a manifold.
This design aims to explicitly disentangle domain-invariant features and
domain-specific features while gaining individual control of both. The image
translation process is formulated as a stylisation task, where the input is
"stylised" (translated) into diverse target-domain images based on style codes
sampled from the learnt manifold. We test MDGAN for multi-modal medical image
translation, where we create two domain-specific manifold clusters on the
manifold to translate segmentation maps into pseudo-CT and pseudo-MR images,
respectively. We show that by traversing a path across the MR manifold cluster,
the target output can be manipulated while still retaining the shape
information from the input.
- Abstract(参考訳): 医用画像変換(ctからmrへ)は、i)ドメイン不変特徴の忠実な翻訳(解剖学的構造の形状情報など)、ii)ターゲット領域特徴の現実的な合成(mrにおける組織出現など)を必要とするため、難しい課題である。
本研究では,この2つの特徴を明示的にモデル化する新しい画像翻訳フレームワークであるmdgan(mandular disentanglement generative adversarial network)を提案する。
完全畳み込み生成器を使用してドメイン不変な特徴をモデル化し、スタイルコードを使用して対象領域の特徴を多様体として別々にモデル化する。
この設計は、ドメイン不変の機能とドメイン固有の機能を明確に切り離し、双方を個別に制御することを目的としている。
画像変換処理はスタイライゼーションタスクとして定式化され、入力は学習多様体からサンプリングされたスタイルコードに基づいて、様々なターゲットドメインイメージに「スタイライゼーション」(翻訳)される。
MDGANをマルチモーダルな医用画像変換のためにテストし、この多様体上に2つのドメイン固有の多様体クラスタを作成し、セグメント化マップを擬似CTと擬似MR画像に変換する。
MR多様体クラスタを横切る経路をトラバースすることで、入力から形状情報を保持しながら目標出力を操作可能であることを示す。
関連論文リスト
- One-for-All: Towards Universal Domain Translation with a Single StyleGAN [86.33216867136639]
視覚的に異なる領域間の表現を変換するための新しい翻訳モデルUniTranslatorを提案する。
提案したUniTranslatorは汎用的で、スタイルミキシング、スタイリゼーション、翻訳など様々なタスクを実行できる。
UniTranslatorは、既存の汎用モデルの性能を超越し、代表タスクの特殊モデルに対してよく機能する。
論文 参考訳(メタデータ) (2023-10-22T08:02:55Z) - MAP: Domain Generalization via Meta-Learning on Anatomy-Consistent
Pseudo-Modalities [12.194439938007672]
解剖学的に整合した擬似モダリティ(MAP)のメタラーニングを提案する。
MAPは構造的特徴を学習することでモデル一般化性を向上させる。
各種網膜画像モダリティの公開データセットを7つ評価した。
論文 参考訳(メタデータ) (2023-09-03T22:56:22Z) - Multi-Scale Multi-Target Domain Adaptation for Angle Closure
Classification [50.658613573816254]
角度閉包分類のためのM2DAN(Multi-scale Multi-target Domain Adversarial Network)を提案する。
異なるスケールでのこれらのドメイン不変性に基づいて、ソースドメインで訓練されたディープモデルは、複数のターゲットドメインの角度クロージャを分類することができる。
論文 参考訳(メタデータ) (2022-08-25T15:27:55Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Unsupervised Image to Image Translation for Multiple Retinal Pathology
Synthesis in Optical Coherence Tomography Scans [1.7462881580496201]
眼科はI2Iの応用が急速に増加している主要な分野の1つである。
本稿では,1領域の網膜OCT画像を複数の領域に翻訳する,事前学習型エンコーダを用いた教師なしマルチドメインI2Iネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-11T17:18:03Z) - Unsupervised Domain Adaptation with Semantic Consistency across
Heterogeneous Modalities for MRI Prostate Lesion Segmentation [19.126306953075275]
セマンティック一貫性を促進する2つの新しい損失関数を導入する。
特に,高度な拡散強調画像技術であるVERDICT-MRIの性能向上の課題に対処する。
論文 参考訳(メタデータ) (2021-09-19T17:33:26Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Deep Symmetric Adaptation Network for Cross-modality Medical Image
Segmentation [40.95845629932874]
監視されていないドメイン適応(UDA)手法は、クロスモダリティ医療イメージセグメンテーションタスクで有望なパフォーマンスを示しています。
医療用画像セグメンテーションのためのUDAの新しいディープシンメトリーアーキテクチャを提案する。セグメンテーションサブネットワークと2つのシンメトリーソースとターゲットドメイン翻訳サブネットワークからなる。
本手法は,Cardiac と BraTS のセグメンテーションタスクにおける最先端手法と比較して,顕著な利点がある。
論文 参考訳(メタデータ) (2021-01-18T02:54:30Z) - Unified cross-modality feature disentangler for unsupervised
multi-domain MRI abdomen organs segmentation [3.3504365823045044]
我々の貢献は、多領域画像翻訳と複数の臓器セグメント化のための、一貫したクロスモダリティ特徴分離アプローチである。
ラベル付きソースドメインとしてCTを用いることで,ラベル付きデータを持たないマルチモーダルMRI(T1重み,T2重み)を抽出する。
提案手法により,T1wでは0.85,T2wMRIでは0.90のDice類似係数が得られた。
論文 参考訳(メタデータ) (2020-07-19T13:33:41Z) - GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling [66.50914391679375]
unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T10:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。