論文の概要: ConTrack: Contextual Transformer for Device Tracking in X-ray
- arxiv url: http://arxiv.org/abs/2307.07541v1
- Date: Fri, 14 Jul 2023 14:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 19:17:02.030519
- Title: ConTrack: Contextual Transformer for Device Tracking in X-ray
- Title(参考訳): ConTrack: X線デバイス追跡のためのコンテキスト変換器
- Authors: Marc Demoustier, Yue Zhang, Venkatesh Narasimha Murthy, Florin C.
Ghesu, Dorin Comaniciu
- Abstract要約: ConTrackはトランスフォーマーベースのネットワークで、空間的および時間的コンテキスト情報の両方を使って正確なデバイス検出と追跡を行う。
本手法は,最先端追跡モデルと比較して,検出と追跡の精度が45%以上向上する。
- 参考スコア(独自算出の注目度): 13.788670026481324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Device tracking is an important prerequisite for guidance during endovascular
procedures. Especially during cardiac interventions, detection and tracking of
guiding the catheter tip in 2D fluoroscopic images is important for
applications such as mapping vessels from angiography (high dose with contrast)
to fluoroscopy (low dose without contrast). Tracking the catheter tip poses
different challenges: the tip can be occluded by contrast during angiography or
interventional devices; and it is always in continuous movement due to the
cardiac and respiratory motions. To overcome these challenges, we propose
ConTrack, a transformer-based network that uses both spatial and temporal
contextual information for accurate device detection and tracking in both X-ray
fluoroscopy and angiography. The spatial information comes from the template
frames and the segmentation module: the template frames define the surroundings
of the device, whereas the segmentation module detects the entire device to
bring more context for the tip prediction. Using multiple templates makes the
model more robust to the change in appearance of the device when it is occluded
by the contrast agent. The flow information computed on the segmented catheter
mask between the current and the previous frame helps in further refining the
prediction by compensating for the respiratory and cardiac motions. The
experiments show that our method achieves 45% or higher accuracy in detection
and tracking when compared to state-of-the-art tracking models.
- Abstract(参考訳): デバイス追跡は血管内処置の指導に重要な前提条件である。
特に2次元蛍光画像におけるカテーテル先端の検出と追跡は,血管を血管造影(高用量,高用量,高用量)から蛍光内視鏡(低用量,コントラスト)にマッピングするために重要である。
カテーテル先端の追跡には、血管造影や介入装置のコントラストによって先端が閉塞される可能性があり、心臓運動や呼吸運動によって常に連続的に運動している。
これらの課題を克服するために,x線透視と血管造影の両方で正確なデバイス検出と追跡のために,空間的および時間的コンテキスト情報の両方を使用する変圧器ベースのネットワークcontrackを提案する。
空間情報はテンプレートフレームとセグメンテーションモジュールから来る: テンプレートフレームはデバイスの周囲を定義し、セグメンテーションモジュールはデバイス全体を検知し、チップ予測のためのコンテキストを拡大する。
複数のテンプレートを使用することで、コントラストエージェントによってオクルードされた時のデバイス外観の変化に対して、モデルがより堅牢になる。
電流と前フレームとのセグメンテーションされたカテーテルマスク上で計算されたフロー情報は、呼吸及び心臓の動きを補償することにより予測をさらに洗練するのに役立つ。
本手法は,最先端追跡モデルと比較して,検出および追跡精度が45%以上向上することを示す。
関連論文リスト
- A Novel Tracking Framework for Devices in X-ray Leveraging Supplementary Cue-Driven Self-Supervised Features [6.262161803642583]
本稿では,その時間的可視性を高める自己教師型学習手法を提案する。
本稿では,事前学習した時間ネットワークを効果的に活用する汎用リアルタイム追跡フレームワークを提案する。
バルーンマーカー検出の最大誤差は87%,カテーテル先端検出の最大誤差は61%減少する。
論文 参考訳(メタデータ) (2025-01-22T15:32:07Z) - Auxiliary Input in Training: Incorporating Catheter Features into Deep Learning Models for ECG-Free Dynamic Coronary Roadmapping [17.461510586128874]
ダイナミック冠のロードマップ作成は、X線アンギオグラフィーのオフライン画像シーケンスから抽出した血管マップ(「ロードマップ」)をリアルタイムでX線フルオロスコープのライブストリームにオーバーレイする技術である。
コントラスト剤注入の繰り返しを必要とせず、介入手術のナビゲーションガイダンスを提供することを目標とし、放射線曝露や腎不全に伴うリスクを低減することを目的としている。
論文 参考訳(メタデータ) (2024-08-28T17:05:38Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Robust Landmark-based Stent Tracking in X-ray Fluoroscopy [10.917460255497227]
単一ステントトラッキングのためのエンドツーエンドのディープラーニングフレームワークを提案する。
U-Netベースのランドマーク検出、ResNetベースのステント提案、機能抽出の3つの階層モジュールで構成されている。
実験により,本手法は最先端のポイントベース追跡モデルと比較して,検出精度が有意に向上していることが示された。
論文 参考訳(メタデータ) (2022-07-20T14:20:03Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z) - Dynamic Coronary Roadmapping via Catheter Tip Tracking in X-ray
Fluoroscopy with Deep Learning Based Bayesian Filtering [4.040013871160853]
経皮的冠動脈インターベンション (PCI) は, 冠動脈造影にX線不透明造影剤を併用したX線アンギオグラムを用いて画像誘導を行うのが一般的である。
本報告では、視覚フィードバックを改善し、PCIにおけるコントラスト使用を減らすために、新しい動的冠ロードマップ作成手法の開発について述べる。
特に,カテーテル先端の高精度かつロバストな追跡のために,畳み込みニューラルネットワークの検出結果と,粒子フィルタリングフレームワークを用いたフレーム間の運動推定を統合した,深層学習に基づくベイズフィルタリング手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T22:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。