論文の概要: ProtoEFNet: Dynamic Prototype Learning for Inherently Interpretable Ejection Fraction Estimation in Echocardiography
- arxiv url: http://arxiv.org/abs/2512.03339v1
- Date: Wed, 03 Dec 2025 01:11:28 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:14:05.12028
- Title: ProtoEFNet: Dynamic Prototype Learning for Inherently Interpretable Ejection Fraction Estimation in Echocardiography
- Title(参考訳): ProtoEFNet: 心エコー図におけるインジェクタブル・エジェクション・フラクション推定のための動的プロトタイプ学習
- Authors: Yeganeh Ghamary, Victoria Wu, Hooman Vaseli, Christina Luong, Teresa Tsang, Siavash Bigdeli, Purang Abolmaesumi,
- Abstract要約: ProtoEFNetは、連続EF回帰のためのビデオベースのプロトタイプ学習モデルである。
臨床的に意味のある心臓の動きパターンを捉える動的時間的プロトタイプを学習する。
実験の結果,ProtoEFNetの精度は非解釈可能なものと同等であることがわかった。
- 参考スコア(独自算出の注目度): 3.041654619898153
- License:
- Abstract: Ejection fraction (EF) is a crucial metric for assessing cardiac function and diagnosing conditions such as heart failure. Traditionally, EF estimation requires manual tracing and domain expertise, making the process time-consuming and subject to interobserver variability. Most current deep learning methods for EF prediction are black-box models with limited transparency, which reduces clinical trust. Some post-hoc explainability methods have been proposed to interpret the decision-making process after the prediction is made. However, these explanations do not guide the model's internal reasoning and therefore offer limited reliability in clinical applications. To address this, we introduce ProtoEFNet, a novel video-based prototype learning model for continuous EF regression. The model learns dynamic spatiotemporal prototypes that capture clinically meaningful cardiac motion patterns. Additionally, the proposed Prototype Angular Separation (PAS) loss enforces discriminative representations across the continuous EF spectrum. Our experiments on the EchonetDynamic dataset show that ProtoEFNet can achieve accuracy on par with its non-interpretable counterpart while providing clinically relevant insight. The ablation study shows that the proposed loss boosts performance with a 2% increase in F1 score from 77.67$\pm$2.68 to 79.64$\pm$2.10. Our source code is available at: https://github.com/DeepRCL/ProtoEF
- Abstract(参考訳): Ejection fraction (EF) は心機能評価と心不全などの診断に重要な指標である。
伝統的に、EF推定には手動のトレースとドメインの専門知識が必要であり、プロセスに時間がかかり、サーバ間の変動が生じる。
EF予測のための現在のディープラーニング手法のほとんどは、透明性が制限されたブラックボックスモデルであり、臨床信頼を低下させる。
予測後の意思決定過程を解釈するために, ポストホックな説明可能性法が提案されている。
しかし、これらの説明はモデルの内部的推論を導くものではないため、臨床応用の信頼性は限られている。
本稿では,連続EF回帰のための新しいビデオベースプロトタイプ学習モデルであるProtoEFNetを紹介する。
このモデルは、臨床的に意味のある心臓の動きパターンをキャプチャする動的時空間プロトタイプを学習する。
さらに、提案されたプロトタイプAngular分離(PAS)損失は、連続EFスペクトルの識別的表現を強制する。
EchonetDynamic データセットを用いた実験により,ProtoEFNet は非解釈可能なデータセットと同等の精度を達成でき,臨床的に関連性のある洞察を提供することができた。
アブレーション調査では、提案された損失はF1スコアが77.67$\pm$2.68から79.64$\pm$2.10に2%上昇してパフォーマンスが向上した。
私たちのソースコードは、https://github.com/DeepRCL/ProtoEFで利用可能です。
関連論文リスト
- Echo-E$^3$Net: Efficient Endo-Epi Spatio-Temporal Network for Ejection Fraction Estimation [6.230277002017236]
左室放出率(LVEF)は、心不全の診断や臨床的決定の導出に広く用いられている心機能を評価するための重要な指標である。
最近のディープラーニングの進歩は自動化を強化しているが、既存のモデルの多くは計算的に要求されている。
LVEF推定に適した効率的な内耳時間ネットワークであるEcho-E$3$Netを提案する。
論文 参考訳(メタデータ) (2025-03-21T21:24:44Z) - Domain Adaptive Diabetic Retinopathy Grading with Model Absence and Flowing Data [45.75724873443564]
ドメインシフトは、糖尿病網膜症などの臨床応用において重要な課題である。
本稿では,データ中心の観点から適応可能なGUES(Generative Unadversarial Examples)を提案する。
論文 参考訳(メタデータ) (2024-12-02T07:14:25Z) - EchoNarrator: Generating natural text explanations for ejection fraction predictions [1.3082208571657106]
左心室 (LV) の放出率 (EF) は, 急性心不全の診断において最も重要な測定基準の1つである。
近年のディープラーニング研究の成功はEF値の推定に成功しているが、提案されたモデルには予測に関する説明がないことが多い。
本稿では,複数のフレーム上でのLV輪郭の推定と,様々な動きや形状の属性を計算するためのモジュールとルーチンのセットを組み合わせるモデルを提案する。
そして、属性を大きな言語モデルに入力し、人間のような方法でネットワークの結果を説明するのに役立つテキストを生成する。
論文 参考訳(メタデータ) (2024-10-31T08:59:34Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - CoReEcho: Continuous Representation Learning for 2D+time Echocardiography Analysis [42.810247034149214]
直接EF回帰に適した連続表現を強調する新しいトレーニングフレームワークであるCoReEchoを提案する。
CoReEcho: 1) 最大の心エコー画像データセット(EchoNet-Dynamic)上で現在最先端のSOTA(State-of-the-art)を、82.44の3.90&R2のMAEで上回り、2) 関連する下流タスクにおいてより効果的に転送する堅牢で一般化可能な機能を提供する。
論文 参考訳(メタデータ) (2024-03-15T10:18:06Z) - ProtoASNet: Dynamic Prototypes for Inherently Interpretable and
Uncertainty-Aware Aortic Stenosis Classification in Echocardiography [4.908455453888849]
大動脈狭窄症(Aortic stenosis、AS)は、心臓弁弁疾患の1つで、適切な治療のために正確かつタイムリーな診断を必要とする。
現在の自動検出法のほとんどは、信頼性の低いブラックボックスモデルに依存しており、臨床応用を妨げている。
本稿では,Bmode心エコービデオから直接ASを検出するネットワークであるProtoASを提案する。
ProtoASNetは、それぞれの予測に対する解釈可能性と不確実性を提供する。
論文 参考訳(メタデータ) (2023-07-26T18:06:25Z) - EchoGNN: Explainable Ejection Fraction Estimation with Graph Neural
Networks [26.817931695658583]
エジェクション分画(EF)は心機能の重要な指標であり、心不全などの心機能障害に起因した患者の識別を可能にする。
EFは、左心室を手動で追跡し、その容積を特定のフレームで推定することにより、心エコー(echo)として知られる心エコービデオから推定される。
これらの推定は、手動のプロセスと様々なビデオ品質により、サーバ間のばらつきが高い。
エコービデオからEFを推定するために,グラフニューラルネットワーク(GNN)に基づくモデルであるEchoGNNを導入する。
論文 参考訳(メタデータ) (2022-08-30T05:59:57Z) - MS Lesion Segmentation: Revisiting Weighting Mechanisms for Federated
Learning [92.91544082745196]
フェデレートラーニング(FL)は医用画像解析に広く用いられている。
FLのパフォーマンスは、多発性硬化症(MS)病変セグメンテーションタスクに制限される。
2つの効果的な再重み付け機構によるFLMS病変分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-03T14:06:03Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Motion Pyramid Networks for Accurate and Efficient Cardiac Motion
Estimation [51.72616167073565]
本研究では,心臓の運動推定を高精度かつ効率的に行うための,ディープラーニングに基づく新しいアプローチであるMotion Pyramid Networksを提案する。
我々は、複数の特徴表現から運動場のピラミッドを予測し、融合し、より洗練された運動場を生成する。
そこで我々は,新しい循環型教員教育戦略を用いて,推論をエンドツーエンドにし,トラッキング性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-06-28T21:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。