論文の概要: Cyclical Self-Supervision for Semi-Supervised Ejection Fraction
Prediction from Echocardiogram Videos
- arxiv url: http://arxiv.org/abs/2210.11291v1
- Date: Thu, 20 Oct 2022 14:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:07:09.380272
- Title: Cyclical Self-Supervision for Semi-Supervised Ejection Fraction
Prediction from Echocardiogram Videos
- Title(参考訳): 心エコー画像からの半監督エジェクション分画予測のための周期的自己スーパービジョン
- Authors: Weihang Dai, Xiaomeng Li, Xinpeng Ding, Kwang-Ting Cheng
- Abstract要約: 左室放出率(LVEF)は心不全の重要な指標である。
ビデオからLVEFを推定するための現在の手法は、高い性能を達成するために大量の注釈付きデータを必要とする。
本稿では,LVEF予測のための最初の半教師付きアプローチを提案する。
- 参考スコア(独自算出の注目度): 32.62593401120131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Left-ventricular ejection fraction (LVEF) is an important indicator of heart
failure. Existing methods for LVEF estimation from video require large amounts
of annotated data to achieve high performance, e.g. using 10,030 labeled
echocardiogram videos to achieve mean absolute error (MAE) of 4.10. Labeling
these videos is time-consuming however and limits potential downstream
applications to other heart diseases. This paper presents the first
semi-supervised approach for LVEF prediction. Unlike general video prediction
tasks, LVEF prediction is specifically related to changes in the left ventricle
(LV) in echocardiogram videos. By incorporating knowledge learned from
predicting LV segmentations into LVEF regression, we can provide additional
context to the model for better predictions. To this end, we propose a novel
Cyclical Self-Supervision (CSS) method for learning video-based LV
segmentation, which is motivated by the observation that the heartbeat is a
cyclical process with temporal repetition. Prediction masks from our
segmentation model can then be used as additional input for LVEF regression to
provide spatial context for the LV region. We also introduce teacher-student
distillation to distill the information from LV segmentation masks into an
end-to-end LVEF regression model that only requires video inputs. Results show
our method outperforms alternative semi-supervised methods and can achieve MAE
of 4.17, which is competitive with state-of-the-art supervised performance,
using half the number of labels. Validation on an external dataset also shows
improved generalization ability from using our method.
- Abstract(参考訳): 左室放出率(LVEF)は心不全の重要な指標である。
既存のビデオからのLVEF推定法では、大量のアノテートデータが必要であり、例えば10,030ラベルの心エコービデオを使用して4.10の平均絶対誤差(MAE)を達成する。
しかし、これらのビデオのラベル付けは時間がかかり、下流のアプリケーションは他の心臓疾患に制限される。
本稿では,LVEF予測のための最初の半教師付きアプローチを提案する。
一般的なビデオ予測タスクとは異なり、LVEF予測は心エコービデオにおける左心室(LV)の変化と特に関連している。
lvセグメンテーションの予測から学んだ知識をlvef回帰に組み込むことで、より良い予測のためにモデルに追加のコンテキストを提供できる。
そこで本研究では,心拍が周期的周期過程であり,周期的反復を繰り返すことによるビデオベースのlvセグメンテーションを学習するための新しい巡回的自己スーパービジョン(css)法を提案する。
セグメンテーションモデルからの予測マスクをLVEF回帰のための追加入力として使用して,LV領域の空間的コンテキストを提供する。
また,LVセグメンテーションマスクからの情報をビデオ入力のみを必要とするエンドツーエンドのLVEF回帰モデルに抽出するために,教師による蒸留を導入する。
その結果,提案手法は代替の半教師付き手法よりも優れており,最先端の教師付き性能と競合する4.17のMAEを実現することができる。
外部データセットの検証も,本手法による一般化能力の向上を示す。
関連論文リスト
- EchoNarrator: Generating natural text explanations for ejection fraction predictions [1.3082208571657106]
左心室 (LV) の放出率 (EF) は, 急性心不全の診断において最も重要な測定基準の1つである。
近年のディープラーニング研究の成功はEF値の推定に成功しているが、提案されたモデルには予測に関する説明がないことが多い。
本稿では,複数のフレーム上でのLV輪郭の推定と,様々な動きや形状の属性を計算するためのモジュールとルーチンのセットを組み合わせるモデルを提案する。
そして、属性を大きな言語モデルに入力し、人間のような方法でネットワークの結果を説明するのに役立つテキストを生成する。
論文 参考訳(メタデータ) (2024-10-31T08:59:34Z) - Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - Diffusion-Refined VQA Annotations for Semi-Supervised Gaze Following [74.30960564603917]
訓練用視線モデルには、人間のアノテータによって注釈付けされた視線目標座標を持つ多数の画像が必要である。
タスクに2つの新しい前処理を導入することで、視線追跡のための最初の半教師付き手法を提案する。
提案手法は,GazeFollow画像データセットに基づく単純な擬似アノテーション生成ベースラインよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T20:43:26Z) - Zero-Shot Video Semantic Segmentation based on Pre-Trained Diffusion Models [96.97910688908956]
本稿では,事前学習した拡散モデルに基づくビデオセマンティック(VSS)の最初のゼロショット手法を提案する。
予め訓練された画像とビデオ拡散モデルに基づくVSSに適したフレームワークを提案する。
実験により,提案手法は既存のゼロショット画像セマンティックセグメンテーション手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-27T08:39:38Z) - Weakly Supervised Video Individual CountingWeakly Supervised Video
Individual Counting [126.75545291243142]
Video Individual Countingは、単一のビデオ内のユニークな個人数を予測することを目的としている。
トラジェクトリラベルが提供されない弱い教師付きVICタスクを導入する。
そこで我々は,ネットワークを駆動し,インフロー,アウトフロー,残りを識別するために,エンドツーエンドのトレーニング可能なソフトコントラスト損失を考案した。
論文 参考訳(メタデータ) (2023-12-10T16:12:13Z) - Semantic-aware Temporal Channel-wise Attention for Cardiac Function
Assessment [69.02116920364311]
既存のビデオベースの手法では、左室領域や運動による左室の変化にはあまり注意を払わない。
本稿では,左室分割課題を伴う半教師付き補助学習パラダイムを提案し,左室領域の表現学習に寄与する。
提案手法は,0.22 MAE,0.26 RMSE,1.9%$R2$の改善により,スタンフォードデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-09T05:57:01Z) - SimLVSeg: Simplifying Left Ventricular Segmentation in 2D+Time Echocardiograms with Self- and Weakly-Supervised Learning [0.8672882547905405]
狭義の心エコービデオから一貫した左室(LV)セグメンテーションを行うビデオベースネットワークであるSimLVSegを開発した。
SimLVSegは、時間的マスキングによる自己教師付き事前トレーニングと、スパースアノテーションからのLVセグメンテーションに適した弱い教師付き学習で構成されている。
我々は、SimLVSegが、最大の2D+時間心エコー画像データセットで93.32%のダイススコアを達成して、最先端のソリューションをいかに優れているかを実証する。
論文 参考訳(メタデータ) (2023-09-30T18:13:41Z) - EchoGNN: Explainable Ejection Fraction Estimation with Graph Neural
Networks [26.817931695658583]
エジェクション分画(EF)は心機能の重要な指標であり、心不全などの心機能障害に起因した患者の識別を可能にする。
EFは、左心室を手動で追跡し、その容積を特定のフレームで推定することにより、心エコー(echo)として知られる心エコービデオから推定される。
これらの推定は、手動のプロセスと様々なビデオ品質により、サーバ間のばらつきが高い。
エコービデオからEFを推定するために,グラフニューラルネットワーク(GNN)に基づくモデルであるEchoGNNを導入する。
論文 参考訳(メタデータ) (2022-08-30T05:59:57Z) - Adaptive Contrast for Image Regression in Computer-Aided Disease
Assessment [22.717658723840255]
深部画像回帰のための最初のコントラスト学習フレームワーク,すなわちAdaConを提案する。
AdaConは、新しいアダプティブマージンコントラスト損失と回帰予測ブランチによる特徴学習ブランチで構成されている。
AdaConの2つの医用画像回帰作業における効果を実証する。
論文 参考訳(メタデータ) (2021-12-22T07:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。