論文の概要: Attention on the Wires (AttWire): A Foundation Model for Detecting Devices and Catheters in X-ray Fluoroscopic Images
- arxiv url: http://arxiv.org/abs/2503.06190v1
- Date: Sat, 08 Mar 2025 12:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:46:17.533670
- Title: Attention on the Wires (AttWire): A Foundation Model for Detecting Devices and Catheters in X-ray Fluoroscopic Images
- Title(参考訳): ワイヤー(AttWire)の注意:X線蛍光画像におけるデバイスとカテーテルの検出の基礎モデル
- Authors: YingLiang Ma, Sandra Howell, Aldo Rinaldi, Tarv Dhanjal, Kawal S. Rhode,
- Abstract要約: 新しい注意機構は、X線画像のワイヤ領域に畳み込みニューラルネットワーク(CNN)モデルを導くために設計された。
より高精度でリアルタイムな速度で複数の物体を同時に検出する軽量基盤モデルを作成することができる。
- 参考スコア(独自算出の注目度): 0.4064887614767072
- License:
- Abstract: Objective: Interventional devices, catheters and insertable imaging devices such as transesophageal echo (TOE) probes are routinely used in minimally invasive cardiovascular procedures. Detecting their positions and orientations in X-ray fluoroscopic images is important for many clinical applications. Method: In this paper, a novel attention mechanism was designed to guide a convolution neural network (CNN) model to the areas of wires in X-ray images, as nearly all interventional devices and catheters used in cardiovascular procedures contain wires. The attention mechanism includes multi-scale Gaussian derivative filters and a dot-product-based attention layer. By utilizing the proposed attention mechanism, a lightweight foundation model can be created to detect multiple objects simultaneously with higher precision and real-time speed. Results: The proposed model was trained and tested on a total of 12,438 X-ray images. An accuracy of 0.88 was achieved for detecting an echo probe and 0.87 for detecting an artificial valve at 58 FPS. The accuracy was measured by intersection-over-union (IoU). We also achieved a 99.8% success rate in detecting a 10-electrode catheter and a 97.8% success rate in detecting an ablation catheter. Conclusion: Our detection foundation model can simultaneously detect and identify both interventional devices and flexible catheters in real-time X-ray fluoroscopic images. Significance: The proposed model employs a novel attention mechanism to achieve high-performance object detection, making it suitable for various clinical applications and robotic-assisted surgeries. Codes are available at https://github.com/YingLiangMa/AttWire.
- Abstract(参考訳): 目的: インターベンショナルデバイス、カテーテル、経食道エコー(TOE)プローブなどの挿入可能な画像装置は、最小侵襲の心血管手術で日常的に使用される。
X線フルオロスコープ画像における位置と向きの検出は多くの臨床応用において重要である。
方法: 本論文では, 循環器外科手術で使用されるほとんどすべての介入装置とカテーテルがワイヤを含むため, コンボリューションニューラルネットワーク(CNN)モデルをX線画像のワイヤ領域に誘導する新しいアテンション機構を設計した。
本発明のアテンション機構は、多スケールガウス微分フィルタとドット生成物に基づくアテンション層とを含む。
提案手法を用いることで,より高精度かつリアルタイムに複数の物体を同時に検出できる軽量基盤モデルを構築することができる。
結果: 提案したモデルは, 合計12,438枚のX線画像を用いて訓練, 試験を行った。
エコープローブの検出には0.88、人工弁を58FPSで検出する0.87の精度が得られた。
精度はIoUで測定した。
また,10電極カテーテル検出で99.8%,アブレーションカテーテル検出で97.8%の成功を収めた。
結論: 実時間X線フルオロスコープ画像における干渉デバイスとフレキシブルカテーテルの両方を同時に検出・同定できる基盤モデルを構築した。
意義: 提案モデルでは, 高性能物体検出のための新しい注意機構を用いて, 様々な臨床応用やロボット支援手術に適応する。
コードはhttps://github.com/YingLiangMa/AttWire.comで入手できる。
関連論文リスト
- Data-Centric Learning Framework for Real-Time Detection of Aiming Beam in Fluorescence Lifetime Imaging Guided Surgery [3.8261910636994925]
本研究では,FLImを用いたリアルタイム手術指導のための新しいデータ中心アプローチを提案する。
第一の課題は,特に経口ロボット手術(TORS)における手術環境における複雑で変動的な状態から生じる。
ラベルノイズの最小化と検出ロバスト性の向上により精度を向上させるデータ中心のトレーニング戦略を用いて,インスタンスセグメンテーションモデルを開発した。
論文 参考訳(メタデータ) (2024-11-11T22:04:32Z) - Enhancing Angular Resolution via Directionality Encoding and Geometric Constraints in Brain Diffusion Tensor Imaging [70.66500060987312]
拡散強調画像(DWI)は、水分子の拡散率に感応した磁気共鳴イメージング(MRI)の一種である。
本研究はDirGeo-DTIを提案する。DirGeo-DTIは、勾配方向の最小理論数(6)で得られたDWIの集合からでも、信頼できるDTIメトリクスを推定する深層学習に基づく手法である。
論文 参考訳(メタデータ) (2024-09-11T11:12:26Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Detecting the Sensing Area of A Laparoscopic Probe in Minimally Invasive
Cancer Surgery [6.0097646269887965]
外科腫瘍学では、外科医がリンパ節を同定し、がんを完全に切除することは困難である。
新しいテザリングラパロスコープガンマ検出器を用いて、術前に注入された放射線を局在させる。
ガンマ活動の可視化は、プローブが非イメージングであり、組織表面の活性を視覚的に示さないため、オペレーターに提示することが困難である。
論文 参考訳(メタデータ) (2023-07-07T15:33:49Z) - Robust Landmark-based Stent Tracking in X-ray Fluoroscopy [10.917460255497227]
単一ステントトラッキングのためのエンドツーエンドのディープラーニングフレームワークを提案する。
U-Netベースのランドマーク検出、ResNetベースのステント提案、機能抽出の3つの階層モジュールで構成されている。
実験により,本手法は最先端のポイントベース追跡モデルと比較して,検出精度が有意に向上していることが示された。
論文 参考訳(メタデータ) (2022-07-20T14:20:03Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Operational Learning-based Boundary Estimation in Electromagnetic
Medical Imaging [0.0]
同じ電磁画像データを用いて画像の境界を推定するために,学習に基づく手法を提案する。
16素子アンテナアレイを用いた頭部イメージングシステムを用いて, 独立臨床試験により, 学習モデルを検証した。
論文 参考訳(メタデータ) (2021-08-04T12:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。