論文の概要: EchoTracker: Advancing Myocardial Point Tracking in Echocardiography
- arxiv url: http://arxiv.org/abs/2405.08587v1
- Date: Tue, 14 May 2024 13:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 14:08:58.054369
- Title: EchoTracker: Advancing Myocardial Point Tracking in Echocardiography
- Title(参考訳): EchoTracker: 心エコー図における心筋点追跡の促進
- Authors: Md Abulkalam Azad, Artem Chernyshov, John Nyberg, Ingrid Tveten, Lasse Lovstakken, Håvard Dalen, Bjørnar Grenne, Andreas Østvik,
- Abstract要約: EchoTrackerは、超音波画像シーケンスを横切る組織表面のクエリポイントの追跡を容易にする、2倍の粗い粒度モデルである。
実験の結果、平均位置精度は67%、中央軌道誤差は2.86ピクセルである。
このことは、学習に基づく点追跡がパフォーマンスを向上し、臨床測定において高い診断と予後の値が得られることを示唆している。
- 参考スコア(独自算出の注目度): 0.6263680699548959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tissue tracking in echocardiography is challenging due to the complex cardiac motion and the inherent nature of ultrasound acquisitions. Although optical flow methods are considered state-of-the-art (SOTA), they struggle with long-range tracking, noise occlusions, and drift throughout the cardiac cycle. Recently, novel learning-based point tracking techniques have been introduced to tackle some of these issues. In this paper, we build upon these techniques and introduce EchoTracker, a two-fold coarse-to-fine model that facilitates the tracking of queried points on a tissue surface across ultrasound image sequences. The architecture contains a preliminary coarse initialization of the trajectories, followed by reinforcement iterations based on fine-grained appearance changes. It is efficient, light, and can run on mid-range GPUs. Experiments demonstrate that the model outperforms SOTA methods, with an average position accuracy of 67% and a median trajectory error of 2.86 pixels. Furthermore, we show a relative improvement of 25% when using our model to calculate the global longitudinal strain (GLS) in a clinical test-retest dataset compared to other methods. This implies that learning-based point tracking can potentially improve performance and yield a higher diagnostic and prognostic value for clinical measurements than current techniques. Our source code is available at: https://github.com/riponazad/echotracker/.
- Abstract(参考訳): 心エコー図における組織追跡は, 複雑な心臓運動と超音波取得の固有の性質のために困難である。
オプティカルフロー法は最先端技術(SOTA)と考えられているが、長距離追跡、ノイズ遮断、心循環中におけるドリフトに苦慮している。
近年,これらの問題に対処するために,新たな学習ベースのポイントトラッキング技術が導入されている。
本稿では,これらの技術を活用し,超音波画像列間の組織表面の問合せ点の追跡を容易にする2次元粗大化モデルであるEchoTrackerを紹介する。
このアーキテクチャは、軌道の粗い初期化と、きめ細かい外観変化に基づく強化繰り返しを含む。
効率的で軽量で、ミッドレンジGPU上で動作する。
実験の結果、平均位置精度は67%、中央軌道誤差は2.86ピクセルである。
さらに,本モデルを用いて臨床検診データセットのGLS(Global longitudinal strain)を計算した場合,他の方法と比較して25%の相対的な改善が得られた。
このことは、学習に基づくポイントトラッキングがパフォーマンスを改善し、現在の技術よりも高い診断と予後の値が得られることを示唆している。
私たちのソースコードは、https://github.com/riponazad/echotracker/.comで公開されています。
関連論文リスト
- Unsupervised 4D Cardiac Motion Tracking with Spatiotemporal Optical Flow Networks [7.920406261260867]
本稿では、空間的再構成損失と時間的整合損失を伴って、教師なし光フローネットワークを設計する動作追跡手法を提案する。
提案する損失関数はペアワイズと時間的相関を利用してノイズ背景から心臓の動きを推定する。
我々の知る限り、これは4次元心運動追跡のための教師なしエンドツーエンドのディープラーニング光フローネットワークを用いた最初の研究である。
論文 参考訳(メタデータ) (2024-07-05T17:18:46Z) - Automatic Cardiac Pathology Recognition in Echocardiography Images Using Higher Order Dynamic Mode Decomposition and a Vision Transformer for Small Datasets [2.0286377328378737]
心臓病は、人間の機能不全の主な原因だ。WHOによると、心臓病のために毎年約1800万人が死亡している。
本研究では,新しい深層学習フレームワークに基づく自動心臓病理診断システムを提案する。
論文 参考訳(メタデータ) (2024-04-30T14:16:45Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - Extraction of volumetric indices from echocardiography: which deep
learning solution for clinical use? [6.144041824426555]
提案した3D nnU-Netは,2D法と繰り返しセグメンテーション法よりも優れていることを示す。
実験の結果、十分なトレーニングデータがあれば、3D nnU-Netは日常的な臨床機器の基準を満たす最初の自動化ツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-03T09:38:52Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Motion Pyramid Networks for Accurate and Efficient Cardiac Motion
Estimation [51.72616167073565]
本研究では,心臓の運動推定を高精度かつ効率的に行うための,ディープラーニングに基づく新しいアプローチであるMotion Pyramid Networksを提案する。
我々は、複数の特徴表現から運動場のピラミッドを予測し、融合し、より洗練された運動場を生成する。
そこで我々は,新しい循環型教員教育戦略を用いて,推論をエンドツーエンドにし,トラッキング性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-06-28T21:03:19Z) - DENS-ECG: A Deep Learning Approach for ECG Signal Delineation [15.648061765081264]
本稿では,心拍のリアルタイムセグメンテーションのためのディープラーニングモデルを提案する。
提案アルゴリズムはDENS-ECGアルゴリズムと呼ばれ、畳み込みニューラルネットワーク(CNN)と長短期記憶(LSTM)モデルを組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-18T13:13:41Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z) - A Graph-constrained Changepoint Detection Approach for ECG Segmentation [5.209323879611983]
本稿では,前処理ステップを使わずにRピーク位置を確実に検出するための新しいグラフベース最適変化点検出法を提案する。
提案手法は,MIT-BIH不整脈データベース(MIT-BIH-AR)に基づいて,全体の感度 Sen = 99.76,正の予測率 PPR = 99.68,検出誤差率 DER = 0.55 を達成する。
論文 参考訳(メタデータ) (2020-04-24T23:41:41Z) - Learning to Optimize Non-Rigid Tracking [54.94145312763044]
我々は、堅牢性を改善し、解法収束を高速化するために学習可能な最適化を採用する。
まず、CNNを通じてエンドツーエンドに学習された深い特徴にアライメントデータ項を統合することにより、追跡対象をアップグレードする。
次に,プレコンディショニング手法と学習手法のギャップを,プレコンディショナを生成するためにトレーニングされたConditionNetを導入することで埋める。
論文 参考訳(メタデータ) (2020-03-27T04:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。