論文の概要: ConVibNet: Needle Detection during Continuous Insertion via Frequency-Inspired Features
- arxiv url: http://arxiv.org/abs/2603.01147v1
- Date: Sun, 01 Mar 2026 15:16:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.535991
- Title: ConVibNet: Needle Detection during Continuous Insertion via Frequency-Inspired Features
- Title(参考訳): ConVibNet:周波数インスピレーションによる連続挿入中の針検出
- Authors: Jiamei Guo, Zhehao Duan, Maria Neiiendam, Dianye Huang, Nassir Navab, Zhongliang Jiang,
- Abstract要約: 本研究では,針検出のためのVibNetの拡張であるConVibNetについて述べる。
連続するフレーム間の動き相関を明示的に活用する新たな交叉・差分損失を導入する。
- 参考スコア(独自算出の注目度): 36.97601609064981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Ultrasound-guided needle interventions are widely used in clinical practice, but their success critically depends on accurate needle placement, which is frequently hindered by the poor and intermittent visibility of needles in ultrasound images. Existing approaches remain limited by artifacts, occlusions, and low contrast, and often fail to support real-time continuous insertion. To overcome these challenges, this study introduces a robust real-time framework for continuous needle detection. Methods: We present ConVibNet, an extension of VibNet for detecting needles with significantly reduced visibility, addressing real-time, continuous needle tracking during insertion. ConVibNet leverages temporal dependencies across successive ultrasound frames to enable continuous estimation of both needle tip position and shaft angle in dynamic scenarios. To strengthen temporal awareness of needle-tip motion, we introduce a novel intersection-and-difference loss that explicitly leverages motion correlations across consecutive frames. In addition, we curated a dedicated dataset for model development and evaluation. Results: The performance of the proposed ConVibNet model was evaluated on our dataset, demonstrating superior accuracy compared to the baseline VibNet and UNet-LSTM models. Specifically, ConVibNet achieved a tip error of 2.80+-2.42 mm and an angle error of 1.69+-2.00 deg. These results represent a 0.75 mm improvement in tip localization accuracy over the best-performing baseline, while preserving real-time inference capability. Conclusion: ConVibNet advances real-time needle detection in ultrasound-guided interventions by integrating temporal correlation modeling with a novel intersection-and-difference loss, thereby improving accuracy and robustness and demonstrating high potential for integration into autonomous insertion systems.
- Abstract(参考訳): 目的: 超音波ガイド下針挿入術は臨床で広く用いられているが, その成功は正確な針配置に依存する。
既存のアプローチは、アーティファクト、オクルージョン、低コントラストによって制限され、しばしばリアルタイムの継続的挿入をサポートしない。
これらの課題を克服するために、連続針検出のための堅牢なリアルタイムフレームワークを提案する。
方法:ConVibNetは針検出のためのVibNetの拡張であり,挿入時の針追跡のリアルタイム化に対処する。
ConVibNetは連続する超音波フレーム間の時間的依存関係を利用して、動的シナリオにおける針先位置と軸角の連続的な推定を可能にする。
針先運動の時間的認識を強化するために,連続するフレーム間の動き相関を明示的に活用する新たな交叉・差分損失を導入する。
さらに,モデル開発と評価のための専用データセットをキュレートした。
結果:提案したConVibNetモデルの性能をデータセットで評価し,ベースラインのVibNetモデルとUNet-LSTMモデルと比較して精度が高いことを示した。
具体的には、ConVibNetは2.80+-2.42mmの先端誤差と1.69+-2.00デグの角度誤差を達成した。
これらの結果は、リアルタイム推論能力を保ちながら、最高のパフォーマンスのベースラインよりもチップの局所化精度が0.75mm向上したことを示している。
結論: ConVibNetは, 経時的相関モデルと新たな交叉差分損失を統合し, 精度と堅牢性を向上し, 自律的挿入システムへの統合の可能性を示すことにより, 超音波ガイド下手術におけるリアルタイムニードル検出を推し進める。
関連論文リスト
- A Self-Adaptive Frequency Domain Network for Continuous Intraoperative Hypotension Prediction [9.841996321633298]
術中低血圧 (IOH) は, 術後合併症と強く関連している。
既存の手法は時間領域情報と周波数領域情報の両方を組み込む際に制限に直面している。
SAFDNet(Self-Adaptive Frequency Domain Network)を提案する。
論文 参考訳(メタデータ) (2025-09-28T08:02:28Z) - OccluNet: Spatio-Temporal Deep Learning for Occlusion Detection on DSA [1.3635341861371646]
デジタル・サブトラクション・アンギオグラフィーの解釈は、複雑さと解剖学的時間的制約による課題を引き起こす。
この研究は、一段階の物体検出器であるYOLOXを統合した時相ディープラーニングモデルであるOccluNetを提案する。
MR CLEAN RegistryによるDSA画像の評価では、時間的に一貫した特徴をキャプチャするモデルの能力が明らかにされた。
論文 参考訳(メタデータ) (2025-08-19T21:59:59Z) - Unstable Prompts, Unreliable Segmentations: A Challenge for Longitudinal Lesion Analysis [0.5537760992845262]
本稿では,ULS23セグメンテーションモデルの性能を経時的に検討する。
本報告では, スキャン間登録誤りによる経過観察におけるセグメンテーション品質の急激な低下と, その後の病変対応過程の崩壊の2つの重要な障害モードを同定した。
論文 参考訳(メタデータ) (2025-07-25T12:55:48Z) - Imputation of Missing Data in Smooth Pursuit Eye Movements Using a Self-Attention-based Deep Learning Approach [0.0]
本稿では,時系列に自己注意型Imputation Networkを用いた新しいImputationフレームワークを提案する。
我々は、スムーズな追従眼球運動シーケンスを表現するために、カスタムメイドのオートエンコーダを用いて、インプテッドデータを洗練する。
その結果,再建眼球運動系列の精度は有意に向上した。
論文 参考訳(メタデータ) (2025-05-31T13:10:30Z) - Rethinking Contrastive Learning in Graph Anomaly Detection: A Clean-View Perspective [54.605073936695575]
グラフ異常検出は、Webセキュリティやファイナンシャル不正検出などの分野で広く応用されているグラフベースのデータにおいて、異常なパターンを特定することを目的としている。
既存の手法は対照的な学習に依存しており、ノードとその局所部分グラフの間のより低い類似性は異常を示すと仮定する。
干渉エッジの存在は、対照的な学習過程を損なう破壊的なノイズをもたらすため、この仮定を無効にする。
コントラスト学習プロセスにおいて重要な干渉源を特定するために,複数スケールの異常認識モジュールを含むクリーンビュー拡張グラフ異常検出フレームワーク(CVGAD)を提案する。
論文 参考訳(メタデータ) (2025-05-23T15:05:56Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - VibNet: Vibration-Boosted Needle Detection in Ultrasound Images [40.64433529217187]
VibNetは、米国の画像における針検出の可視性と精度を高めるために設計された学習ベースのフレームワークである。
VibNetはニューラルショートタイムフーリエ変換Hough変換モジュールを統合して、モーション特徴抽出やニードル検出を含む連続的なサブゴールを実現する。
論文 参考訳(メタデータ) (2024-03-21T16:23:25Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Markerless Suture Needle 6D Pose Tracking with Robust Uncertainty
Estimation for Autonomous Minimally Invasive Robotic Surgery [11.530352384883361]
ベイズフィルタを用いたマーカーレス縫合針ポーズトラッキングの新しい手法を提案する。
データ効率の良い特徴点検出器を訓練し、針上の特徴点を抽出する。
新しい観察モデルは、検出と針の予測投影との重なりを計測する。
論文 参考訳(メタデータ) (2021-09-26T23:30:14Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - Towards Streaming Perception [70.68520310095155]
本稿では、リアルタイムオンライン知覚のための単一のメトリクスにレイテンシと精度を協調的に統合するアプローチを提案する。
この指標の背後にある重要な洞察は、瞬間ごとに認識スタック全体の出力を共同で評価することである。
本稿では,都市ビデオストリームにおけるオブジェクト検出とインスタンスセグメンテーションの具体的タスクに注目し,高品質で時間依存的なアノテーションを備えた新しいデータセットを寄贈する。
論文 参考訳(メタデータ) (2020-05-21T01:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。