論文の概要: EchoLVFM: One-Step Video Generation via Latent Flow Matching for Echocardiogram Synthesis
- arxiv url: http://arxiv.org/abs/2603.13967v1
- Date: Sat, 14 Mar 2026 14:39:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.515887
- Title: EchoLVFM: One-Step Video Generation via Latent Flow Matching for Echocardiogram Synthesis
- Title(参考訳): EchoLVFM:エコー心電図合成のための潜時流マッチングによるワンステップビデオ生成
- Authors: Emmanuel Oladokun, Sarina Thomas, Jurica Šprem, Vicente Grau,
- Abstract要約: 本稿では,1段階の遅延ビデオフローマッチングフレームワークであるEchoLVFMを紹介する。
潜時空間で動作するEchoLVFMは、時間的にコヒーレントなビデオを単一の推論ステップで合成する。
その結果、競争力のあるビデオ品質、強いEFの定着、および専門医による57.9%の識別精度が示された。
- 参考スコア(独自算出の注目度): 1.703077957571322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Echocardiography is widely used for assessing cardiac function, where clinically meaningful parameters such as left-ventricular ejection fraction (EF) play a central role in diagnosis and management. Generative models capable of synthesising realistic echocardiogram videos with explicit control over such parameters are valuable for data augmentation, counterfactual analysis, and specialist training. However, existing approaches typically rely on computationally expensive multi-step sampling and aggressive temporal normalisation, limiting efficiency and applicability to heterogeneous real-world data. We introduce EchoLVFM, a one-step latent video flow-matching framework for controllable echocardiogram generation. Operating in the latent space, EchoLVFM synthesises temporally coherent videos in a single inference step, achieving a $\mathbf{\sim 50\times}$ improvement in sampling efficiency compared to multi-step flow baselines while maintaining visual fidelity. The model supports global conditioning on clinical variables, demonstrated through precise control of EF, and enables reconstruction and counterfactual generation from partially observed sequences. A masked conditioning strategy further removes fixed-length constraints, allowing shorter sequences to be retained rather than discarded. We evaluate EchoLVFM on the CAMUS dataset under challenging single-frame conditioning. Quantitative and qualitative results demonstrate competitive video quality, strong EF adherence, and 57.9% discrimination accuracy by expert clinicians which is close to chance. These findings indicate that efficient, one-step flow matching can enable practical, controllable echocardiogram video synthesis without sacrificing fidelity. Code available at: https://github.com/EngEmmanuel/EchoLVFM
- Abstract(参考訳): 心エコー法は心機能評価に広く用いられており、左室放出率(EF)などの臨床的に有意なパラメータが診断・管理において中心的な役割を果たしている。
このようなパラメータを明示的に制御したリアルな心エコービデオの合成が可能な生成モデルは、データ拡張、反事実分析、専門訓練に有用である。
しかし、既存のアプローチは一般に計算に費用がかかる多段階サンプリングと攻撃的な時間正規化に依存し、非均一な実世界のデータに効率と適用性を制限する。
本稿では,1段階の遅延ビデオフローマッチングフレームワークであるEchoLVFMを紹介する。
潜時空間で動作するEchoLVFMは、時間的コヒーレントなビデオを単一の推論ステップで合成し、視覚的忠実さを維持しながら、多段階フローベースラインと比較してサンプリング効率を$$$\mathbf{\sim 50\times}で改善する。
このモデルは、臨床変数のグローバルコンディショニングをサポートし、EFの精密な制御を通じて実証し、部分的に観察されたシーケンスから再構成および対実生成を可能にする。
マスク付き条件付け戦略により、固定長の制約はさらに取り除かれ、短いシーケンスは破棄されるのではなく維持される。
単一フレーム条件下でのCAMUSデータセット上でのエコーLVFMの評価を行った。
定量および定性的な結果は、競争力のあるビデオの品質、強いEFの定着、そして57.9%の精度が、偶然に近い専門家による識別精度を示している。
これらの結果から,効率的なワンステップフローマッチングにより,忠実度を犠牲にすることなく,実用的で制御可能な心エコービデオ合成が可能であることが示唆された。
https://github.com/EngEmmanuel/EchoLVFM
関連論文リスト
- Interpretable and backpropagation-free Green Learning for efficient multi-task echocardiographic segmentation and classification [23.395777551262494]
グリーンラーニングフレームワークは、左室(LV)セグメンテーションとLVEFの同時分類を実行する。
EchoNet-Dynamicデータセットでは、MTGLモデルは最先端の分類とセグメンテーション性能を達成する。
この研究は、GLパラダイムが複雑な医用画像解析のための高精度、効率的、解釈可能なソリューションを提供できることを示した。
論文 参考訳(メタデータ) (2026-01-27T16:04:42Z) - Label-free Motion-Conditioned Diffusion Model for Cardiac Ultrasound Synthesis [13.306765004903118]
本研究では, ラベルなし遅延拡散フレームワークであるMotion Conditioned Diffusion Model (MCDM)を提案する。
MCDMは、手動ラベルに依存することなく、時間的に一貫性があり、臨床的に現実的なシーケンスを生成する、競争力のあるビデオ生成性能を実現する。
論文 参考訳(メタデータ) (2025-12-10T08:32:34Z) - ControlEchoSynth: Boosting Ejection Fraction Estimation Models via Controlled Video Diffusion [12.459487400882068]
エコービューを合成して臨床診断精度を高めるための新しい手法を提案する。
これらの視点は、既存の心のリアルな視点に基づいており、射出率(EF)の推定に特に焦点を当てている。
予備的な結果は、我々の合成エコーが、既存のデータセットを増強するために使用される場合、EF推定を向上するだけでなく、より堅牢で正確で臨床的に関連する機械学習モデルの開発を進める可能性も示している。
論文 参考訳(メタデータ) (2025-08-25T03:27:25Z) - EchoFlow: A Foundation Model for Cardiac Ultrasound Image and Video Generation [6.849095682774907]
本稿では,高画質でプライバシー保護された人工心エコー画像とビデオを生成するための新しいフレームワークであるEchoFlowを紹介する。
本研究は,EchoFlowを用いた合成データセットのみにトレーニングされた下流モデルが,実際のデータセットでトレーニングされたモデルと性能的に同等であることを示す。
論文 参考訳(メタデータ) (2025-03-28T11:51:59Z) - Q-PART: Quasi-Periodic Adaptive Regression with Test-time Training for Pediatric Left Ventricular Ejection Fraction Regression [45.69922532213079]
適応型左室エジェクション・フラクション(LVEF)の評価の課題に対処する。
我々はtextbfTest-time Training (Q-PART) フレームワークを用いた textbfQuasi-textbfPeriodic textbfAdaptive textbfRegression を提案する。
論文 参考訳(メタデータ) (2025-03-06T06:24:51Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - CoReEcho: Continuous Representation Learning for 2D+time Echocardiography Analysis [42.810247034149214]
直接EF回帰に適した連続表現を強調する新しいトレーニングフレームワークであるCoReEchoを提案する。
CoReEcho: 1) 最大の心エコー画像データセット(EchoNet-Dynamic)上で現在最先端のSOTA(State-of-the-art)を、82.44の3.90&R2のMAEで上回り、2) 関連する下流タスクにおいてより効果的に転送する堅牢で一般化可能な機能を提供する。
論文 参考訳(メタデータ) (2024-03-15T10:18:06Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。