論文の概要: End-to-End Deep Learning Model for Cardiac Cycle Synchronization from
Multi-View Angiographic Sequences
- arxiv url: http://arxiv.org/abs/2009.02345v1
- Date: Fri, 4 Sep 2020 18:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 02:08:11.634745
- Title: End-to-End Deep Learning Model for Cardiac Cycle Synchronization from
Multi-View Angiographic Sequences
- Title(参考訳): 多視点アンギオグラフィーを用いたエンド・ツー・エンド深層学習モデルによる心周期同期
- Authors: Rapha\"el Royer-Rivard, Fantin Girard, Nagib Dahdah and Farida Cheriet
- Abstract要約: 異なるビューの時間的マッチングは、同時に取得されない可能性があるが、冠動脈セグメントの正確なステレオマッチングの前提条件である。
心臓循環中に異なる視点を同期させるため、血管造影シークエンスからニューラルネットワークをトレーニングする方法を示す。
- 参考スコア(独自算出の注目度): 3.4377441151536376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic reconstructions (3D+T) of coronary arteries could give important
perfusion details to clinicians. Temporal matching of the different views,
which may not be acquired simultaneously, is a prerequisite for an accurate
stereo-matching of the coronary segments. In this paper, we show how a neural
network can be trained from angiographic sequences to synchronize different
views during the cardiac cycle using raw x-ray angiography videos exclusively.
First, we train a neural network model with angiographic sequences to extract
features describing the progression of the cardiac cycle. Then, we compute the
distance between the feature vectors of every frame from the first view with
those from the second view to generate distance maps that display stripe
patterns. Using pathfinding, we extract the best temporally coherent
associations between each frame of both videos. Finally, we compare the
synchronized frames of an evaluation set with the ECG signals to show an
alignment with 96.04% accuracy.
- Abstract(参考訳): 冠動脈のダイナミックリコンストラクション(3d+t)は臨床医に重要な灌流詳細を与える可能性がある。
同時に取得できない異なるビューの時間的マッチングは、冠動脈セグメントの正確なステレオマッチングの前提条件である。
本稿では,生のx線血管造影ビデオを用いて,血管像列からニューラルネットワークを訓練し,心周期中に異なる視点を同期させる方法について述べる。
まず,血管造影画像を用いたニューラルネットワークモデルを訓練し,心周期の進行を記述した特徴を抽出した。
次に、第1の視点から各フレームの特徴ベクトル間の距離を第2の視点から算出し、ストライプパターンを表示する距離マップを生成する。
パスフィンディングを用いて、両ビデオのフレーム間の最適な時間的コヒーレントな関連を抽出する。
最後に、評価セットの同期フレームとECG信号を比較し、96.04%の精度でアライメントを示す。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Epicardium Prompt-guided Real-time Cardiac Ultrasound Frame-to-volume Registration [50.602074919305636]
本稿では,CU-Reg と呼ばれる,軽量でエンドツーエンドなカード・ツー・エンド・超音波フレーム・ツー・ボリューム・レジストレーション・ネットワークを提案する。
2次元スパースと3次元濃密な特徴の相互作用を増強するために,心内膜急速ガイドによる解剖学的手がかりを用い,その後,強化された特徴のボクセル的局所グロバル集約を行った。
論文 参考訳(メタデータ) (2024-06-20T17:47:30Z) - SimLVSeg: Simplifying Left Ventricular Segmentation in 2D+Time Echocardiograms with Self- and Weakly-Supervised Learning [0.8672882547905405]
狭義の心エコービデオから一貫した左室(LV)セグメンテーションを行うビデオベースネットワークであるSimLVSegを開発した。
SimLVSegは、時間的マスキングによる自己教師付き事前トレーニングと、スパースアノテーションからのLVセグメンテーションに適した弱い教師付き学習で構成されている。
我々は、SimLVSegが、最大の2D+時間心エコー画像データセットで93.32%のダイススコアを達成して、最先端のソリューションをいかに優れているかを実証する。
論文 参考訳(メタデータ) (2023-09-30T18:13:41Z) - Echocardiography Segmentation Using Neural ODE-based Diffeomorphic
Registration Field [0.0]
本稿ではニューラル常微分方程式(ニューラルODE)を用いた新しい拡散画像登録法を提案する。
提案手法であるEcho-ODEでは,従来の最先端技術と比較して,いくつかの改良が加えられている。
その結果,本手法は過去の最先端技術よりも多面的に優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-16T08:37:27Z) - Streaming Audio-Visual Speech Recognition with Alignment Regularization [69.30185151873707]
本稿では,ハイブリッド接続型時間分類(CTC)/アテンションニューラルネットワークアーキテクチャに基づくストリーミングAV-ASRシステムを提案する。
提案したAV-ASRモデルは、オフラインおよびオンライン設定でLip Reading Sentences 3データセット上で、WERの2.0%と2.6%を達成する。
論文 参考訳(メタデータ) (2022-11-03T20:20:47Z) - Light-weight spatio-temporal graphs for segmentation and ejection
fraction prediction in cardiac ultrasound [5.597394612661975]
本研究では,左心室分画予測と左心室分画のためのEchoGraphsという自動手法を提案する。
キーポイントの検出には、GCN(Graph Conal Networks)に基づく直接座標回帰モデルを用いる。
セマンティックセグメンテーションと比較すると、GCNは正確なセグメンテーションと堅牢性と推論ランタイムの改善を示している。
論文 参考訳(メタデータ) (2022-07-06T10:03:44Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Echocardiography Segmentation with Enforced Temporal Consistency [10.652677452009627]
本研究では,2次元以上の長軸心形態を学習するための枠組みを提案する。
心臓の不整合の同定と補正は、生理的に解釈可能な心臓形状の埋め込みを学ぶために訓練された拘束されたオートエンコーダに依存している。
論文 参考訳(メタデータ) (2021-12-03T16:09:32Z) - Automatic Identification of the End-Diastolic and End-Systolic Cardiac
Frames from Invasive Coronary Angiography Videos [6.203906656404265]
侵襲的冠動脈造影検査において, エンド拡張期(ED)とエンド収縮期(ES)の適切な画像フレームの同定が重要である。
現在の識別法は主に視覚的解釈に依存しており、時間だけでなく再現性も低い。
そこで本研究では,鍵血管点の軌跡を用いて,EDとESの心期に関連する血管画像フレームを自動的に同定する手法を提案する。
論文 参考訳(メタデータ) (2021-10-06T15:16:55Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。