論文の概要: Echo-SyncNet: Self-supervised Cardiac View Synchronization in
Echocardiography
- arxiv url: http://arxiv.org/abs/2102.02287v1
- Date: Wed, 3 Feb 2021 20:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:09:40.557168
- Title: Echo-SyncNet: Self-supervised Cardiac View Synchronization in
Echocardiography
- Title(参考訳): Echo-SyncNet:エコー心電図における自己監視型心電図同期
- Authors: Fatemeh Taheri Dezaki, Christina Luong, Tom Ginsberg, Robert Rohling,
Ken Gin, Purang Abolmaesumi, Teresa Tsang
- Abstract要約: 本研究では,外部入力を使わずに,医療用クロスオブケア2Dエコーシリーズを同期する自己教師型学習フレームワークであるEcho-Sync-Netを提案する。
Apical 2 chamberとApical 4 chamber Heartc viewの同期が期待できる結果を得た。
また, 心臓検出のワンショット学習シナリオにおいて, 学習表現の有用性を示す。
- 参考スコア(独自算出の注目度): 11.407910072022018
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In echocardiography (echo), an electrocardiogram (ECG) is conventionally used
to temporally align different cardiac views for assessing critical
measurements. However, in emergencies or point-of-care situations, acquiring an
ECG is often not an option, hence motivating the need for alternative temporal
synchronization methods. Here, we propose Echo-SyncNet, a self-supervised
learning framework to synchronize various cross-sectional 2D echo series
without any external input. The proposed framework takes advantage of both
intra-view and inter-view self supervisions. The former relies on
spatiotemporal patterns found between the frames of a single echo cine and the
latter on the interdependencies between multiple cines. The combined
supervisions are used to learn a feature-rich embedding space where multiple
echo cines can be temporally synchronized. We evaluate the framework with
multiple experiments: 1) Using data from 998 patients, Echo-SyncNet shows
promising results for synchronizing Apical 2 chamber and Apical 4 chamber
cardiac views; 2) Using data from 3070 patients, our experiments reveal that
the learned representations of Echo-SyncNet outperform a supervised deep
learning method that is optimized for automatic detection of fine-grained
cardiac phase; 3) We show the usefulness of the learned representations in a
one-shot learning scenario of cardiac keyframe detection. Without any
fine-tuning, keyframes in 1188 validation patient studies are identified by
synchronizing them with only one labeled reference study. We do not make any
prior assumption about what specific cardiac views are used for training and
show that Echo-SyncNet can accurately generalize to views not present in its
training set. Project repository: github.com/fatemehtd/Echo-SyncNet.
- Abstract(参考訳): 心エコー法(echo)では、心電図(ECG)を用いて、心電図を時間的に調整し、臨界測定値を評価する。
しかし、緊急時やケアの状況では、ECGの取得はオプションではないことが多いため、代替の時間同期方法の必要性を動機付けている。
本稿では,外部入力なしで様々な断面2Dエコー系列を同期する自己教師型学習フレームワークであるEcho-SyncNetを提案する。
提案するフレームワークは、ビュー内およびビュー間自己監督の両方を活用する。
前者は1つのエコーシネのフレーム間の時空間パターンと、後者は複数のシネ間の相互依存性に依存する。
複合監督は、複数のエコーシネが時間的に同期できる機能豊富な埋め込み空間を学ぶために使用される。
本研究では,998名の患者から得られたデータを用いて,Apical 2のチャンバーとApical 4のチャンバービューを同期させる有望な結果を示すとともに,3070名の患者から得られたデータを用いて,Echo-SyncNetの学習結果が,微細な心筋相の自動検出に最適化された教師付き深層学習法よりも優れていることを明らかにした。
微調整なしで、1188検証患者の研究のキーフレームは、1つのラベル付き参照研究と同期することによって識別されます。
特定の心のビューがトレーニングに何に使われるのかを事前に仮定することはせず、echo-syncnetがそのトレーニングセットに存在しないビューに正確に一般化できることを示しています。
プロジェクトリポジトリ:github.com/fatemehtd/Echo-SyncNet
関連論文リスト
- HeartBeat: Towards Controllable Echocardiography Video Synthesis with Multimodal Conditions-Guided Diffusion Models [14.280181445804226]
本稿では、制御可能で高忠実なECHOビデオ合成のためのHeartBeatという新しいフレームワークを提案する。
HeartBeatは、マルチモーダル条件を同時に認識し、制御可能な生成をガイドする統合フレームワークとして機能する。
このように、ユーザはマルチモーダル制御信号を組み合わせることで、心的イメージに適合するECHOビデオを合成することができる。
論文 参考訳(メタデータ) (2024-06-20T08:24:28Z) - Synchformer: Efficient Synchronization from Sparse Cues [100.89656994681934]
コントリビューションには、新しい音声-視覚同期モデル、同期モデルからの抽出を分離するトレーニングが含まれる。
このアプローチは、濃密な設定とスパース設定の両方において最先端の性能を実現する。
また,100万スケールの 'in-the-wild' データセットに同期モデルのトレーニングを拡張し,解釈可能性に対するエビデンス属性技術を調査し,同期モデルの新たな機能であるオーディオ-視覚同期性について検討する。
論文 参考訳(メタデータ) (2024-01-29T18:59:55Z) - GestSync: Determining who is speaking without a talking head [67.75387744442727]
本稿では,ジェスチャ・シンク (Gesture-Sync) を導入する。
Lip-Syncと比較して、Gesture-Syncは、声と体の動きの間にはるかに緩い関係があるため、はるかに難しい。
このモデルは自己教師付き学習だけで訓練でき、LSS3データセット上での性能を評価することができる。
論文 参考訳(メタデータ) (2023-10-08T22:48:30Z) - SimLVSeg: Simplifying Left Ventricular Segmentation in 2D+Time Echocardiograms with Self- and Weakly-Supervised Learning [0.8672882547905405]
狭義の心エコービデオから一貫した左室(LV)セグメンテーションを行うビデオベースネットワークであるSimLVSegを開発した。
SimLVSegは、時間的マスキングによる自己教師付き事前トレーニングと、スパースアノテーションからのLVセグメンテーションに適した弱い教師付き学習で構成されている。
我々は、SimLVSegが、最大の2D+時間心エコー画像データセットで93.32%のダイススコアを達成して、最先端のソリューションをいかに優れているかを実証する。
論文 参考訳(メタデータ) (2023-09-30T18:13:41Z) - Extraction of volumetric indices from echocardiography: which deep
learning solution for clinical use? [6.144041824426555]
提案した3D nnU-Netは,2D法と繰り返しセグメンテーション法よりも優れていることを示す。
実験の結果、十分なトレーニングデータがあれば、3D nnU-Netは日常的な臨床機器の基準を満たす最初の自動化ツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-03T09:38:52Z) - Sparse in Space and Time: Audio-visual Synchronisation with Trainable
Selectors [103.21152156339484]
本研究の目的は,一般映像の「野生」音声・視覚同期である。
我々は4つのコントリビューションを行う: (i) スパース同期信号に必要な長時間の時間的シーケンスを処理するために、'セレクタ'を利用するマルチモーダルトランスモデルを設計する。
音声やビデオに使用される圧縮コーデックから生じるアーティファクトを識別し、トレーニングにおいてオーディオ視覚モデルを用いて、同期タスクを人工的に解くことができる。
論文 参考訳(メタデータ) (2022-10-13T14:25:37Z) - Echocardiography Segmentation with Enforced Temporal Consistency [10.652677452009627]
本研究では,2次元以上の長軸心形態を学習するための枠組みを提案する。
心臓の不整合の同定と補正は、生理的に解釈可能な心臓形状の埋め込みを学ぶために訓練された拘束されたオートエンコーダに依存している。
論文 参考訳(メタデータ) (2021-12-03T16:09:32Z) - Multi-view Temporal Alignment for Non-parallel Articulatory-to-Acoustic
Speech Synthesis [59.623780036359655]
A2A(Articulatory-to-Aoustic)合成は、音声刺激器のキャプチャされた動きから可聴音声の生成を指します。
この手法には、病気や怪我のためにもはや話せない人々への口頭コミュニケーションの回復など、多くの応用がある。
本稿では,多視点学習の理論に基づく問題解決法を提案する。
論文 参考訳(メタデータ) (2020-12-30T15:09:02Z) - Noise-Resilient Automatic Interpretation of Holter ECG Recordings [67.59562181136491]
本稿では,ホルター記録を雑音に頑健に解析する3段階プロセスを提案する。
第1段階は、心拍位置を検出する勾配デコーダアーキテクチャを備えたセグメンテーションニューラルネットワーク(NN)である。
第2段階は、心拍を幅または幅に分類する分類NNである。
第3のステージは、NN機能の上に、患者対応機能を組み込んだ強化決定木(GBDT)である。
論文 参考訳(メタデータ) (2020-11-17T16:15:49Z) - End-to-End Deep Learning Model for Cardiac Cycle Synchronization from
Multi-View Angiographic Sequences [3.4377441151536376]
異なるビューの時間的マッチングは、同時に取得されない可能性があるが、冠動脈セグメントの正確なステレオマッチングの前提条件である。
心臓循環中に異なる視点を同期させるため、血管造影シークエンスからニューラルネットワークをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2020-09-04T18:11:50Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。