論文の概要: Multi-view Cross-Modality MR Image Translation for Vestibular Schwannoma
and Cochlea Segmentation
- arxiv url: http://arxiv.org/abs/2303.14998v1
- Date: Mon, 27 Mar 2023 08:42:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:28:50.847332
- Title: Multi-view Cross-Modality MR Image Translation for Vestibular Schwannoma
and Cochlea Segmentation
- Title(参考訳): 上腕神経前庭癌に対する多面的MR画像変換法
- Authors: Bogyeong Kang, Hyeonyeong Nam, Ji-Wung Han, Keun-Soo Heo, and Tae-Eui
Kam
- Abstract要約: コントラスト強調T1 (ceT1) MR画像から高分解能T2 (hrT2) MR画像へ変換できる多視点画像翻訳フレームワークを提案する。
画素レベルの一貫した制約とパッチレベルのコントラスト的制約を用いる2つの画像変換モデルを並列に採用する。
これにより、異なる視点を反映した擬似hrT2画像が拡張され、最終的に高い性能のセグメンテーションモデルが実現される。
- 参考スコア(独自算出の注目度): 0.7829352305480285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a multi-view image translation framework, which can
translate contrast-enhanced T1 (ceT1) MR imaging to high-resolution T2 (hrT2)
MR imaging for unsupervised vestibular schwannoma and cochlea segmentation. We
adopt two image translation models in parallel that use a pixel-level
consistent constraint and a patch-level contrastive constraint, respectively.
Thereby, we can augment pseudo-hrT2 images reflecting different perspectives,
which eventually lead to a high-performing segmentation model. Our experimental
results on the CrossMoDA challenge show that the proposed method achieved
enhanced performance on the vestibular schwannoma and cochlea segmentation.
- Abstract(参考訳): 本研究では, コントラスト強調T1 (ceT1) MR画像から高分解能T2 (hrT2) MR画像へ変換できる多視点画像翻訳フレームワークを提案する。
ピクセルレベルの一貫性制約とパッチレベルのコントラスト制約をそれぞれ使用する2つの画像翻訳モデルを並列に採用した。
これにより、異なる視点を反映した擬似hrT2画像が増大し、最終的に高い性能のセグメンテーションモデルが得られる。
CrossMoDA 課題に対する実験結果から,本手法は前庭神経ショーニーノーマとコクリーセグメンテーションの性能を向上させることができた。
関連論文リスト
- Anatomical Conditioning for Contrastive Unpaired Image-to-Image Translation of Optical Coherence Tomography Images [0.0]
我々は,光コヒーレンストモグラフィー(OCT)データセットを用いたSpectralis-OCT画像とHome-OCT画像の問題点について検討した。
I2I翻訳は画像が損なわれないため難しい。
提案手法は,スタイル変換された画像とターゲット分布との類似性を高める。
論文 参考訳(メタデータ) (2024-04-08T11:20:28Z) - Referee Can Play: An Alternative Approach to Conditional Generation via
Model Inversion [35.21106030549071]
拡散確率モデル(DPM)はテキスト・画像生成タスクにおいて支配的な力である。
先進視覚言語モデル(VLM)の逆転手法として、最先端DPMの代替的視点を提案する。
差別的VLMを監督した画像を直接最適化することにより、提案手法はより優れたテキスト画像アライメントを実現することができる。
論文 参考訳(メタデータ) (2024-02-26T05:08:40Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - BBDM: Image-to-image Translation with Brownian Bridge Diffusion Models [50.39417112077254]
BBDM(Brownian Bridge Diffusion Model)に基づく画像から画像への変換手法を提案する。
我々の知る限りでは、画像から画像への変換のためのブラウン橋拡散プロセスを提案する最初の作品である。
論文 参考訳(メタデータ) (2022-05-16T13:47:02Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - An Efficient Smoothing and Thresholding Image Segmentation Framework
with Weighted Anisotropic-Isotropic Total Variation [1.9581049654950413]
異方性等方性変動(AITV)の重み付き差を考慮した多段階画像分割フレームワークを提案する。
第2段階では、スムーズな画像を$K$-meansizerでしきい値にし、最終的な結果を得る。
論文 参考訳(メタデータ) (2022-02-21T10:57:16Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z) - Unified cross-modality feature disentangler for unsupervised
multi-domain MRI abdomen organs segmentation [3.3504365823045044]
我々の貢献は、多領域画像翻訳と複数の臓器セグメント化のための、一貫したクロスモダリティ特徴分離アプローチである。
ラベル付きソースドメインとしてCTを用いることで,ラベル付きデータを持たないマルチモーダルMRI(T1重み,T2重み)を抽出する。
提案手法により,T1wでは0.85,T2wMRIでは0.90のDice類似係数が得られた。
論文 参考訳(メタデータ) (2020-07-19T13:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。