論文の概要: ECHOPulse: ECG controlled echocardio-grams video generation
- arxiv url: http://arxiv.org/abs/2410.03143v2
- Date: Sat, 12 Oct 2024 01:22:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:03:32.900345
- Title: ECHOPulse: ECG controlled echocardio-grams video generation
- Title(参考訳): ECHOPulse:心電図による心エコー図生成
- Authors: Yiwei Li, Sekeun Kim, Zihao Wu, Hanqi Jiang, Yi Pan, Pengfei Jin, Sifan Song, Yucheng Shi, Tianming Liu, Quanzheng Li, Xiang Li,
- Abstract要約: 心エコー検査(ECHO)は心臓評価に必須である。
ECHOビデオ生成は、自動監視を改善するソリューションを提供する。
ECHOPULSEはECG条件のECHOビデオ生成モデルである。
- 参考スコア(独自算出の注目度): 30.753399869167588
- License:
- Abstract: Echocardiography (ECHO) is essential for cardiac assessments, but its video quality and interpretation heavily relies on manual expertise, leading to inconsistent results from clinical and portable devices. ECHO video generation offers a solution by improving automated monitoring through synthetic data and generating high-quality videos from routine health data. However, existing models often face high computational costs, slow inference, and rely on complex conditional prompts that require experts' annotations. To address these challenges, we propose ECHOPULSE, an ECG-conditioned ECHO video generation model. ECHOPULSE introduces two key advancements: (1) it accelerates ECHO video generation by leveraging VQ-VAE tokenization and masked visual token modeling for fast decoding, and (2) it conditions on readily accessible ECG signals, which are highly coherent with ECHO videos, bypassing complex conditional prompts. To the best of our knowledge, this is the first work to use time-series prompts like ECG signals for ECHO video generation. ECHOPULSE not only enables controllable synthetic ECHO data generation but also provides updated cardiac function information for disease monitoring and prediction beyond ECG alone. Evaluations on three public and private datasets demonstrate state-of-the-art performance in ECHO video generation across both qualitative and quantitative measures. Additionally, ECHOPULSE can be easily generalized to other modality generation tasks, such as cardiac MRI, fMRI, and 3D CT generation. Demo can seen from \url{https://github.com/levyisthebest/ECHOPulse_Prelease}.
- Abstract(参考訳): 心エコー法(ECHO)は心臓評価に必須であるが、ビデオの品質と解釈は手作業の専門知識に大きく依存しており、臨床および携帯機器の矛盾した結果をもたらす。
ECHOビデオ生成は、合成データによる自動監視を改善し、通常の健康データから高品質なビデオを生成することで、ソリューションを提供する。
しかし、既存のモデルは高い計算コストに直面し、推論が遅く、専門家のアノテーションを必要とする複雑な条件付きプロンプトに依存していることが多い。
これらの課題に対処するため、ECG条件付きECHOビデオ生成モデルであるECHOPULSEを提案する。
ECHOPULSEは,1)VQ-VAEトークン化とマスク付き視覚トークンモデリングを利用してECHOビデオ生成を高速化し,2)複雑な条件付きプロンプトを回避し,ECHOビデオと高度に整合したECG信号の条件付けを行う。
私たちの知る限りでは、ECHOビデオ生成にECG信号のような時系列プロンプトを使うのはこれが初めてです。
ECHOPULSEは、制御可能な合成ECHOデータ生成を可能にするだけでなく、心疾患のモニタリングや心電図以外の予測のための更新された心機能情報も提供する。
3つのパブリックデータセットとプライベートデータセットの評価は、質的および量的尺度の両面でECHOビデオ生成における最先端のパフォーマンスを示す。
さらに、ECHOPULSEは、心臓MRI、fMRI、三次元CT生成などの他のモダリティ生成タスクに容易に一般化できる。
デモは \url{https://github.com/levyisthebest/ECHOPulse_Prelease} から見ることができる。
関連論文リスト
- HeartBeat: Towards Controllable Echocardiography Video Synthesis with Multimodal Conditions-Guided Diffusion Models [14.280181445804226]
本稿では、制御可能で高忠実なECHOビデオ合成のためのHeartBeatという新しいフレームワークを提案する。
HeartBeatは、マルチモーダル条件を同時に認識し、制御可能な生成をガイドする統合フレームワークとして機能する。
このように、ユーザはマルチモーダル制御信号を組み合わせることで、心的イメージに適合するECHOビデオを合成することができる。
論文 参考訳(メタデータ) (2024-06-20T08:24:28Z) - CarDS-Plus ECG Platform: Development and Feasibility Evaluation of a
Multiplatform Artificial Intelligence Toolkit for Portable and Wearable
Device Electrocardiograms [0.3069335774032178]
単葉心電図(ECG)は、心臓血管の健康をモニタリングするための重要な情報源となっている。
人工知能は、これらの1つのリードのECGを解釈できる大きな進歩があった。
本稿では,AIベースのECGソリューションの迅速な展開を目的とした,革新的なマルチプラットフォームシステムの開発について述べる。
論文 参考訳(メタデータ) (2023-10-10T20:33:48Z) - PulseNet: Deep Learning ECG-signal classification using random
augmentation policy and continous wavelet transform for canines [46.09869227806991]
犬心電図(ECG)の評価には熟練した獣医が必要である。
心電図の解釈と診断支援のための獣医師の現在の利用状況は限られている。
犬の心電図配列を正常または異常と分類するためのディープ畳み込みニューラルネットワーク(CNN)アプローチを実装した。
論文 参考訳(メタデータ) (2023-05-17T09:06:39Z) - Text-to-ECG: 12-Lead Electrocardiogram Synthesis conditioned on Clinical
Text Reports [6.659609788411503]
本稿では,ECG出力を生成するためにテキスト入力を使用するテキスト・ツー・ECGタスクを提案する。
本稿では,12個の心電図を合成する自動回帰生成モデルAuto-TTEを提案する。
論文 参考訳(メタデータ) (2023-03-09T11:58:38Z) - Leveraging Statistical Shape Priors in GAN-based ECG Synthesis [3.3482093430607267]
本稿では,GAN(Generative Adversarial Networks)と統計ECGデータモデリングを用いた新しいECG信号生成手法を提案する。
本手法では,ECG信号の複雑なダイナミックスに対処するため,ECGのダイナミックスに関する事前知識を活用して現実的な信号の合成を行う。
以上の結果から,ECG信号の時間的・振幅的変動を2次元形状としてモデル化した手法は,最先端のGANベースの生成ベースラインと比較して,より現実的な信号を生成することがわかった。
論文 参考訳(メタデータ) (2022-10-22T18:06:11Z) - ME-GAN: Learning Panoptic Electrocardio Representations for Multi-view
ECG Synthesis Conditioned on Heart Diseases [24.52989747071257]
本稿では,ME-GAN と呼ばれる多視点心電図合成のための疾患認識型生成対向ネットワークを提案する。
心臓疾患の心電図は特定の波形に局所化されることが多いため,適切な場所に病情報を正確に注入する「ミックスアップ正規化」を提案する。
総合的な実験により,ME-GANは多視点ECG信号合成において信頼性の高いモルビッド表現を用いて良好に機能することが確認された。
論文 参考訳(メタデータ) (2022-07-21T14:14:02Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - SVTS: Scalable Video-to-Speech Synthesis [105.29009019733803]
本稿では,ビデオ・トゥ・スペクトログラム予測器と事前学習したニューラルボコーダの2つのコンポーネントからなるスケーラブルなビデオ音声合成フレームワークを提案する。
私たちは、挑戦的なLSS3データセットで不可解な結果を示す最初の人です。
論文 参考訳(メタデータ) (2022-05-04T13:34:07Z) - Generalizing electrocardiogram delineation: training convolutional
neural networks with synthetic data augmentation [63.51064808536065]
ECGのデライン化のための既存のデータベースは小さく、サイズやそれらが表す病態の配列に不足している。
まず、原データベースから抽出した基本セグメントのプールを与えられたECGトレースを確率的に合成し、その整合性のある合成トレースに配置するための一連のルールを考案した。
第二に、2つの新しいセグメンテーションに基づく損失関数が開発され、これは、正確な数の独立構造の予測を強制し、サンプル数の削減に焦点をあてて、より密接なセグメンテーション境界を創出することを目的としている。
論文 参考訳(メタデータ) (2021-11-25T10:11:41Z) - Perceptual Learned Video Compression with Recurrent Conditional GAN [158.0726042755]
本稿では, PVC (Perceptual Learned Video Compression) アプローチを提案する。
PLVCは低ビットレートで映像を知覚品質に圧縮することを学ぶ。
ユーザスタディでは、最新の学習ビデオ圧縮手法と比較して、PLVCの優れた知覚性能をさらに検証している。
論文 参考訳(メタデータ) (2021-09-07T13:36:57Z) - Noise-Resilient Automatic Interpretation of Holter ECG Recordings [67.59562181136491]
本稿では,ホルター記録を雑音に頑健に解析する3段階プロセスを提案する。
第1段階は、心拍位置を検出する勾配デコーダアーキテクチャを備えたセグメンテーションニューラルネットワーク(NN)である。
第2段階は、心拍を幅または幅に分類する分類NNである。
第3のステージは、NN機能の上に、患者対応機能を組み込んだ強化決定木(GBDT)である。
論文 参考訳(メタデータ) (2020-11-17T16:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。