論文の概要: Non-Adversarial Learning: Vector-Quantized Common Latent Space for Multi-Sequence MRI
- arxiv url: http://arxiv.org/abs/2407.02911v1
- Date: Wed, 3 Jul 2024 08:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 15:05:39.417619
- Title: Non-Adversarial Learning: Vector-Quantized Common Latent Space for Multi-Sequence MRI
- Title(参考訳): 非対角学習:マルチシーケンスMRIのためのベクトル量子化共通潜時空間
- Authors: Luyi Han, Tao Tan, Tianyu Zhang, Xin Wang, Yuan Gao, Chunyao Lu, Xinglong Liang, Haoran Dou, Yunzhi Huang, Ritse Mann,
- Abstract要約: 本稿では,各列の離散表現を圧縮し,列間の共通潜在空間のガウス分布を推定する生成モデルを提案する。
BraTS2021データセットを用いた実験では、我々の非敵モデルは他のGANベースの手法よりも優れていた。
- 参考スコア(独自算出の注目度): 15.4894593374853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial learning helps generative models translate MRI from source to target sequence when lacking paired samples. However, implementing MRI synthesis with adversarial learning in clinical settings is challenging due to training instability and mode collapse. To address this issue, we leverage intermediate sequences to estimate the common latent space among multi-sequence MRI, enabling the reconstruction of distinct sequences from the common latent space. We propose a generative model that compresses discrete representations of each sequence to estimate the Gaussian distribution of vector-quantized common (VQC) latent space between multiple sequences. Moreover, we improve the latent space consistency with contrastive learning and increase model stability by domain augmentation. Experiments using BraTS2021 dataset show that our non-adversarial model outperforms other GAN-based methods, and VQC latent space aids our model to achieve (1) anti-interference ability, which can eliminate the effects of noise, bias fields, and artifacts, and (2) solid semantic representation ability, with the potential of one-shot segmentation. Our code is publicly available.
- Abstract(参考訳): 対向学習は、ペア化されたサンプルが欠如している場合、生成モデルがMRIをソースからターゲットシーケンスに変換するのに役立つ。
しかし, 臨床現場でのMRI合成は, トレーニング不安定性やモード崩壊により困難である。
この問題に対処するために、中間列を利用してマルチシーケンスMRIの共通潜時空間を推定し、共通潜時空間から異なる列を再構成する。
複数の列間のベクトル量子化コモン(VQC)潜在空間のガウス分布を推定するために,各列の離散表現を圧縮する生成モデルを提案する。
さらに、コントラスト学習による潜在空間の整合性を改善し、ドメイン拡張によるモデルの安定性を向上させる。
BraTS2021データセットを用いた実験により、我々の非敵対的モデルは他のGAN法よりも優れており、VQC潜伏空間は、(1)ノイズ、バイアス場、アーティファクトの影響を排除し、(2)一発セグメンテーションの可能性を秘めた、固いセグメンテーション能力を実現するのに役立ちます。
私たちのコードは公開されています。
関連論文リスト
- A Unified Framework for Synthesizing Multisequence Brain MRI via Hybrid Fusion [4.47838172826189]
我々はHF-GAN(Hybrid Fusion GAN)と呼ばれる,マルチシーケンスMR画像の合成のための新しい統合フレームワークを提案する。
本稿では,相補的情報と相補的情報との絡み合った抽出を確実にするためのハイブリッド核融合エンコーダを提案する。
共通特徴表現は、欠落したMR配列を合成するために、モダリティ注入器を介してターゲット潜在空間に変換される。
論文 参考訳(メタデータ) (2024-06-21T08:06:00Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Spatial-Temporal Decoupling Contrastive Learning for Skeleton-based
Human Action Recognition [10.403751563214113]
STD-CLは、配列から識別的および意味的に異なる表現を得るためのフレームワークである。
STD-CLは、NTU60、NTU120、NW-UCLAベンチマークでしっかりと改善されている。
論文 参考訳(メタデータ) (2023-12-23T02:54:41Z) - Synthesis-based Imaging-Differentiation Representation Learning for
Multi-Sequence 3D/4D MRI [16.725225424047256]
画像差分表現学習のためのシーケンス・ツー・シーケンス生成フレームワーク(Seq2Seq)を提案する。
本研究では、1つのモデル内で任意の3D/4Dシーケンスを生成し、任意のターゲットシーケンスを生成するだけでなく、各シーケンスの重要性をランク付けする。
我々は,2万名の模擬被験者のおもちゃデータセット,1,251名の脳MRIデータセット,2,101名の乳房MRIデータセットを含む3つのデータセットを用いて広範な実験を行った。
論文 参考訳(メタデータ) (2023-02-01T15:37:35Z) - Tensor-based Multi-view Spectral Clustering via Shared Latent Space [14.470859959783995]
MvSC(Multi-view Spectral Clustering)は多様なデータソースによって注目を集めている。
MvSCの新しい手法はRestricted Kernel Machineフレームワークから共有潜在空間を介して提案される。
論文 参考訳(メタデータ) (2022-07-23T17:30:54Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。