論文の概要: Label-free Motion-Conditioned Diffusion Model for Cardiac Ultrasound Synthesis
- arxiv url: http://arxiv.org/abs/2512.09418v1
- Date: Wed, 10 Dec 2025 08:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.449559
- Title: Label-free Motion-Conditioned Diffusion Model for Cardiac Ultrasound Synthesis
- Title(参考訳): 心臓超音波合成のためのラベルフリーモーションコンディション拡散モデル
- Authors: Zhe Li, Hadrien Reynaud, Johanna P Müller, Bernhard Kainz,
- Abstract要約: 本研究では, ラベルなし遅延拡散フレームワークであるMotion Conditioned Diffusion Model (MCDM)を提案する。
MCDMは、手動ラベルに依存することなく、時間的に一貫性があり、臨床的に現実的なシーケンスを生成する、競争力のあるビデオ生成性能を実現する。
- 参考スコア(独自算出の注目度): 13.306765004903118
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ultrasound echocardiography is essential for the non-invasive, real-time assessment of cardiac function, but the scarcity of labelled data, driven by privacy restrictions and the complexity of expert annotation, remains a major obstacle for deep learning methods. We propose the Motion Conditioned Diffusion Model (MCDM), a label-free latent diffusion framework that synthesises realistic echocardiography videos conditioned on self-supervised motion features. To extract these features, we design the Motion and Appearance Feature Extractor (MAFE), which disentangles motion and appearance representations from videos. Feature learning is further enhanced by two auxiliary objectives: a re-identification loss guided by pseudo appearance features and an optical flow loss guided by pseudo flow fields. Evaluated on the EchoNet-Dynamic dataset, MCDM achieves competitive video generation performance, producing temporally coherent and clinically realistic sequences without reliance on manual labels. These results demonstrate the potential of self-supervised conditioning for scalable echocardiography synthesis. Our code is available at https://github.com/ZheLi2020/LabelfreeMCDM.
- Abstract(参考訳): 超音波心エコー法は非侵襲的でリアルタイムな心機能評価には不可欠であるが、プライバシー制限や専門家のアノテーションの複雑さによるラベル付きデータの不足は、深層学習における大きな障害である。
本研究では, ラベルなし遅延拡散フレームワークであるMotion Conditioned Diffusion Model (MCDM)を提案する。
これらの特徴を抽出するために,映像から映像や映像をアンタングルする動き・外観特徴指数(MAFE)を設計する。
特徴学習は、擬似的外観特徴によって導かれる再識別損失と擬似的流れ場によって導かれる光学的流れ損失の2つの補助目的によってさらに強化される。
EchoNet-Dynamicデータセットに基づいて、MCDMは競争力のあるビデオ生成性能を達成し、手動ラベルに依存することなく、時間的に一貫性があり、臨床的に現実的なシーケンスを生成する。
これらの結果は,拡張性心エコー画像合成における自己教師付きコンディショニングの可能性を示している。
私たちのコードはhttps://github.com/ZheLi2020/LabelfreeMCDMで利用可能です。
関連論文リスト
- InfoMotion: A Graph-Based Approach to Video Dataset Distillation for Echocardiography [12.676788334083332]
本稿では,コンパクトな人工心エコービデオデータセットを蒸留するための新しい手法を提案する。
我々はEchoNet-Dynamicデータセットに対する我々のアプローチを評価し、(25)合成ビデオのみを用いて(69.38%)テスト精度を達成した。
論文 参考訳(メタデータ) (2025-12-10T08:39:25Z) - Extreme Cardiac MRI Analysis under Respiratory Motion: Results of the CMRxMotion Challenge [56.28872161153236]
ディープラーニングモデルは、自動心臓磁気共鳴(CMR)解析において最先端の性能を達成した。
これらのモデルの有効性は、高品質でアーティファクトフリーな画像の可用性に大きく依存している。
この領域の研究を促進するために,MICCAI CMRxMotion チャレンジを組織した。
論文 参考訳(メタデータ) (2025-07-25T11:12:21Z) - Systole-Conditioned Generative Cardiac Motion [14.94166259218979]
本研究では,高密度な3次元フローフィールドアノテーションを付加した心肺CTフレームを現実的に合成する手法を提案する。
本手法は,新しいマルチスケール特徴条件付け機構を組み込んだ条件付き変分オートエンコーダ(CVAE)を利用する。
我々のデータ生成パイプラインは、より複雑で正確な心筋運動モデルのトレーニングと検証を可能にします。
論文 参考訳(メタデータ) (2025-07-20T14:44:40Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - EchoFlow: A Foundation Model for Cardiac Ultrasound Image and Video Generation [6.849095682774907]
本稿では,高画質でプライバシー保護された人工心エコー画像とビデオを生成するための新しいフレームワークであるEchoFlowを紹介する。
本研究は,EchoFlowを用いた合成データセットのみにトレーニングされた下流モデルが,実際のデータセットでトレーニングされたモデルと性能的に同等であることを示す。
論文 参考訳(メタデータ) (2025-03-28T11:51:59Z) - LaMoD: Latent Motion Diffusion Model For Myocardial Strain Generation [5.377722774297911]
本稿では,標準CMRビデオから高精度なDENSE動作を予測するため,新しいラミネートモーション拡散モデル(LaMoD)を提案する。
実験の結果,提案手法であるLaMoDは標準CMR画像の動作解析の精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-07-02T12:54:32Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Echocardiography video synthesis from end diastolic semantic map via
diffusion model [0.0]
本稿では,心臓ビデオ合成のために既存のビデオ拡散モデルを拡張し,課題に対処することを目的とする。
我々の焦点は、心循環中に初期フレームのセマンティックマップを用いてビデオを生成することであり、一般にエンドダイアストルと呼ばれる。
本モデルでは,FID,FVD,SSMIなどの複数の指標を用いて,標準拡散法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-11T02:08:05Z) - Semantic-aware Temporal Channel-wise Attention for Cardiac Function
Assessment [69.02116920364311]
既存のビデオベースの手法では、左室領域や運動による左室の変化にはあまり注意を払わない。
本稿では,左室分割課題を伴う半教師付き補助学習パラダイムを提案し,左室領域の表現学習に寄与する。
提案手法は,0.22 MAE,0.26 RMSE,1.9%$R2$の改善により,スタンフォードデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-09T05:57:01Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。