論文の概要: CardiacCLIP: Video-based CLIP Adaptation for LVEF Prediction in a Few-shot Manner
- arxiv url: http://arxiv.org/abs/2509.17065v1
- Date: Sun, 21 Sep 2025 12:52:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.0966
- Title: CardiacCLIP: Video-based CLIP Adaptation for LVEF Prediction in a Few-shot Manner
- Title(参考訳): CardiacCLIP:Few-shot MannerにおけるLVEF予測のためのビデオベースCLIP適応
- Authors: Yao Du, Jiarong Guo, Xiaomeng Li,
- Abstract要約: 左室放出分画(LVEF)は心臓機能の指標となる。
既存のLVEF推定手法は、大規模な注釈付きビデオデータセットに依存する。
我々は、注目ベースのフレームアグリゲーションとマルチレゾリューション・インプット・スケーリングによるLVEF予測を強化する、ビデオベースのフレームワークであるCardiacCLIPを提案する。
- 参考スコア(独自算出の注目度): 14.429336783145644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Echocardiography is a vital non-invasive modality for cardiac assessment, with left ventricular ejection fraction (LVEF) serving as a key indicator of heart function. Existing LVEF estimation methods depend on large-scale annotated video datasets, which are costly and limit adaptability across various clinical settings. Recent vision-language models for echocardiography, such as EchoCLIP, apply image-to-text pretraining but fail to capture crucial temporal dynamics and localized cardiac structures essential for accurate diagnosis. To address these challenges, we propose CardiacCLIP, a video-based framework that enhances LVEF prediction through attention-based frame aggregation and multi-resolution input scaling. Specifically, we introduce MFL (Multi Frame Learning), a novel attention-based mechanism for selectively fusing informative frames, and EchoZoom, a multi-scale feature extraction strategy that refines spatial representations of cardiac structures. As a novel adaptation of CLIP models for few-shot echocardiogram video analysis, our approach significantly improves diagnostic accuracy, reducing MAE by 2.07 on the EchoNet-Dynamic dataset under 1-shot setting. The code is available at https://github.com/xmed-lab/CardiacCLIP.
- Abstract(参考訳): 心エコー検査は心機能指標として左室放出分画(LVEF)が有用である。
既存のLVEF推定法は、様々な臨床環境において費用がかかり適応性が制限される大規模な注釈付きビデオデータセットに依存している。
エコーCLIPのような近年の心エコー図の視覚言語モデルは、画像とテキストの事前トレーニングを適用しているが、正確な診断に欠かせない重要な時間的ダイナミックスや局所的な心構造を捉えることができない。
これらの課題に対処するために,注意ベースのフレームアグリゲーションとマルチレゾリューション・インプット・スケーリングによるLVEF予測を強化する,ビデオベースのフレームワークであるCardiacCLIPを提案する。
具体的には、情報フレームを選択的に融合させる新しいアテンションベースのメカニズムであるMFL(Multi Frame Learning)と、心臓構造の空間表現を洗練するマルチスケール特徴抽出戦略であるEchoZoomを紹介する。
数ショットの心エコー画像解析のためのCLIPモデルの新規適応として,本手法は診断精度を大幅に向上し,1ショット設定下でのEchoNet-Dynamicデータセット上でMAEを2.07削減する。
コードはhttps://github.com/xmed-lab/CardiacCLIPで入手できる。
関連論文リスト
- Global and Local Contrastive Learning for Joint Representations from Cardiac MRI and ECG [40.407824759778784]
PTACL(Patient and Temporal Alignment Contrastive Learning)は、CMRからの時間情報を統合することで、ECG表現を強化するマルチモーダルコントラスト学習フレームワークである。
英国バイオバンクの被験者27,951名を対象に,ペア心電図-CMRデータを用いたPTACLの評価を行った。
心電図を用いた非侵襲的心臓診断におけるPTACLの有用性について検討した。
論文 参考訳(メタデータ) (2025-06-24T17:19:39Z) - Encoding of Demographic and Anatomical Information in Chest X-Ray-based Severe Left Ventricular Hypertrophy Classifiers [36.052936348670634]
胸部X線による重症左室肥大を予測するための直接分類フレームワークを提案する。
提案手法は AUROC と AUPRC を高い精度で実現し,特徴表現率の定量化に相互情報ニューラル推定を用いる。
論文 参考訳(メタデータ) (2025-05-31T13:30:04Z) - Multi-Scale Feature Fusion with Image-Driven Spatial Integration for Left Atrium Segmentation from Cardiac MRI Images [0.0]
本稿では,DINOv2をエンコーダとしてUNetスタイルのデコーダと統合するフレームワークを提案する。
LAScarQS 2022データセットに対する我々のアプローチを検証するとともに、92.3%のDiceと84.1%のIoUスコアで巨大なアーキテクチャの性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-10T16:12:46Z) - Refining Myocardial Infarction Detection: A Novel Multi-Modal Composite Kernel Strategy in One-Class Classification [14.469786240272365]
心筋梗塞(MI)の早期発見は、さらなる損傷を防ぐために不可欠である。
本研究では,心エコー法における一クラス分類法(OCC)を用いた早期MI検出法を提案する。
今回提案したマルチビュー・アプローチは71.24%の幾何学的平均値を達成し,心エコー図に基づくMI診断の大幅な進歩を示唆している。
論文 参考訳(メタデータ) (2024-02-09T16:41:50Z) - MEDPSeg: Hierarchical polymorphic multitask learning for the segmentation of ground-glass opacities, consolidation, and pulmonary structures on computed tomography [37.119000111386924]
MEDPSegは階層型多形マルチタスク学習(HPML)を通して異種胸部CTターゲットから学習する
本稿では,GGOと統合セグメンテーションタスクの最先端性能を実現するPMLについて述べる。
さらに、MEDPSegは肺発作、気道、肺動脈、肺病変の分節を同時に行う。
論文 参考訳(メタデータ) (2023-12-04T21:46:39Z) - Semantic-aware Temporal Channel-wise Attention for Cardiac Function
Assessment [69.02116920364311]
既存のビデオベースの手法では、左室領域や運動による左室の変化にはあまり注意を払わない。
本稿では,左室分割課題を伴う半教師付き補助学習パラダイムを提案し,左室領域の表現学習に寄与する。
提案手法は,0.22 MAE,0.26 RMSE,1.9%$R2$の改善により,スタンフォードデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-09T05:57:01Z) - M(otion)-mode Based Prediction of Ejection Fraction using
Echocardiograms [13.112371567924802]
心エコー図のM(otion)モードを用いて左室流出率(EF)を推定し,心筋症を分類する。
心エコー図から複数の人工Mモード画像を生成し,既製のモデルアーキテクチャを用いて組み合わせる。
実験の結果,教師付き設定は10モードで収束し,ベースライン法に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-09-07T15:00:58Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Heart Sound Segmentation using Bidirectional LSTMs with Attention [37.62160903348547]
心電図(PCG)信号を心臓状態に分割するための新しい枠組みを提案する。
我々は近年の注目に基づく学習の進歩を利用してPCG信号のセグメンテーションを行う。
提案手法は,ヒトと動物の両方の心臓記録を含む複数のベンチマークにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-04-02T02:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。