論文の概要: Medical needle tip tracking based on Optical Imaging and AI
- arxiv url: http://arxiv.org/abs/2308.14477v1
- Date: Mon, 28 Aug 2023 10:30:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 14:19:27.501886
- Title: Medical needle tip tracking based on Optical Imaging and AI
- Title(参考訳): 光画像とaiを用いた医用針先端追跡
- Authors: Zhuoqi Cheng, Simon Lyck Bj{\ae}rt S{\o}rensen, Mikkel Werge Olsen,
Ren\'e Lynge Eriksen, Thiusius Rajeeth Savarimuthu
- Abstract要約: 本論文は針先リアルタイム追跡のための革新的な技術であり,針挿入指導の強化を目的としている。
具体的には,光ファイバー付針を用いた散乱画像の作成を中心に展開し,CNNに基づくアルゴリズムを用いて針先端の位置と向きをリアルタイムで推定する手法を提案する。
平均大腿動脈半径が4mmから5mmと推定され,大腿動脈挿入術における針ガイドの精度が高い可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep needle insertion to a target often poses a huge challenge, requiring a
combination of specialized skills, assistive technology, and extensive
training. One of the frequently encountered medical scenarios demanding such
expertise includes the needle insertion into a femoral vessel in the groin.
After the access to the femoral vessel, various medical procedures, such as
cardiac catheterization and extracorporeal membrane oxygenation (ECMO) can be
performed. However, even with the aid of Ultrasound imaging, achieving
successful insertion can necessitate multiple attempts due to the complexities
of anatomy and tissue deformation. To address this challenge, this paper
presents an innovative technology for needle tip real-time tracking, aiming for
enhanced needle insertion guidance. Specifically, our approach revolves around
the creation of scattering imaging using an optical fiber-equipped needle, and
uses Convolutional Neural Network (CNN) based algorithms to enable real-time
estimation of the needle tip's position and orientation during insertion
procedures. The efficacy of the proposed technology was rigorously evaluated
through three experiments. The first two experiments involved rubber and bacon
phantoms to simulate groin anatomy. The positional errors averaging 2.3+1.5mm
and 2.0+1.2mm, and the orientation errors averaging 0.2+0.11rad and
0.16+0.1rad. Furthermore, the system's capabilities were validated through
experiments conducted on fresh porcine phantom mimicking more complex
anatomical structures, yielding positional accuracy results of 3.2+3.1mm and
orientational accuracy of 0.19+0.1rad. Given the average femoral arterial
radius of 4 to 5mm, the proposed system is demonstrated with a great potential
for precise needle guidance in femoral artery insertion procedures. In
addition, the findings highlight the broader potential applications of the
system in the medical field.
- Abstract(参考訳): 標的への深い針の挿入は、しばしば大きな課題となり、専門的なスキル、補助技術、広範囲な訓練を必要とする。
このような専門知識を要求する頻繁に遭遇する医学的シナリオの1つは、大腿血管への針挿入である。
大腿骨血管へのアクセス後、心臓カテーテル化や体外膜酸素化(ECMO)などの様々な医療処置を行うことができる。
しかし、超音波画像の助けを借りても、解剖学と組織変形の複雑さのため、挿入の成功には複数の試みが必要となる。
この課題に対処するため,本論文では針先リアルタイム追跡のための革新的な技術について述べる。
具体的には,光ファイバー付針を用いた散乱画像の作成と,針先端の位置と挿入時の方向をリアルタイムで推定するための畳み込みニューラルネットワーク(CNN)に基づくアルゴリズムについて検討した。
提案技術の有効性を3つの実験により厳格に評価した。
最初の2つの実験では、ゴムとベーコンファントムがグロイン解剖学をシミュレートした。
位置誤差は平均2.3+1.5mmと2.0+1.2mmであり、方向誤差は0.2+0.11radと0.16+0.1radである。
さらに、より複雑な解剖学的構造を模倣した豚のファントムを用いて実験を行い、3.2+3.1mmの位置精度と0.19+0.1radの方位精度を得た。
平均大腿動脈半径が4mmから5mmと推定され,大腿動脈挿入術における針ガイドの精度が高い可能性が示唆された。
さらに、この発見は医療分野におけるシステムのより広範な応用を浮き彫りにしている。
関連論文リスト
- EndoGSLAM: Real-Time Dense Reconstruction and Tracking in Endoscopic Surgeries using Gaussian Splatting [53.38166294158047]
EndoGSLAMは鏡視下手術の効率的なアプローチであり、合理化表現と微分ガウス化を統合している。
実験の結果,EndoGSLAMは従来型あるいは神経型SLAMアプローチよりも術中可用性と再建品質のトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2024-03-22T11:27:43Z) - The automatic detection of lumber anatomy in epidural injections for
ultrasound guidance [0.16385815610837165]
ラマー・ダグラス・ペッカー法とハフ変換を併用した形態素に基づく骨の伸長・検出法を提案する。
提案アルゴリズムは, 人工骨と実骨の超音波画像を用いて実験を行った。
提案手法は, 椎骨の対角形状とそれに対応する硬膜外深さを高速に検出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-07T20:11:36Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - Edge AI-Based Vein Detector for Efficient Venipuncture in the
Antecubital Fossa [0.0]
我々は1008名の被験者から収集した2,016個のラベル付き画像のNIRに基づく新しい前腕静脈セグメンテーションデータセットを導入した。
第2に,患者眼窩部の静脈を特定できるU-Netアーキテクチャを提案する。
第三に、提案したアーキテクチャの圧縮バージョンが、ベスポークでポータブルな静脈ファインダ装置内に展開された。
論文 参考訳(メタデータ) (2023-10-27T16:19:26Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Collaborative Robotic Biopsy with Trajectory Guidance and Needle Tip
Force Feedback [49.32653090178743]
本報告では, トラジェクトリーガイダンスと審美フィードバックを組み合わせて, 針の配置を補助するロボットバイオプシーシステムについて述べる。
リアルタイムデータ処理のための光コヒーレンストモグラフィーと機械学習に基づいて針先端の力を検出する針の設計。
膵臓のin situ生検を行ない,より小さい,より深いターゲット構造を正確にサンプリングできることを実証した。
論文 参考訳(メタデータ) (2023-06-12T14:07:53Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Automatic Diagnosis of Carotid Atherosclerosis Using a Portable Freehand
3D Ultrasound Imaging System [18.73291257371106]
計127個の頸動脈スキャンを携帯型3DUSシステムを用いて取得した。
U-Netセグメンテーションネットワークを用いて2次元横枠上の頸動脈を抽出した。
頸動脈容積を再構築するために, 位置正則化を用いた高速ドット投影法(FDP)を用いた新しい3次元再構成法を提案した。
論文 参考訳(メタデータ) (2023-01-08T17:35:36Z) - Towards Autonomous Atlas-based Ultrasound Acquisitions in Presence of
Articulated Motion [48.52403516006036]
本稿では、自律型ロボットUS手足のスキャンを可能にする視覚ベースのアプローチを提案する。
この目的のために、アノテートされた血管構造を有するヒト腕のアトラスMRIテンプレートを使用して、軌跡を生成する。
いずれの場合も、このシステムはボランティアの手足で計画された血管構造を取得することができる。
論文 参考訳(メタデータ) (2022-08-10T15:39:20Z) - Segmentation-free Estimation of Aortic Diameters from MRI Using Deep
Learning [2.231365407061881]
大動脈径の直接推定のための教師付き深層学習法を提案する。
提案手法では,3Dスキャンを入力とし,所定の位置で大動脈径を出力する3D+2D畳み込みニューラルネットワーク(CNN)を用いる。
全体として、3D+2D CNNは大動脈の位置によって2.2-2.4mmの平均的な絶対誤差を達成した。
論文 参考訳(メタデータ) (2020-09-09T18:28:00Z) - Towards Augmented Reality-based Suturing in Monocular Laparoscopic
Training [0.5707453684578819]
本研究では,シリコーンパッド上での腹腔鏡下トレーニング結果を高めるために,定量的かつ質的な視覚表現を備えた拡張現実環境を提案する。
これは、マルチクラスセグメンテーションと深度マップ予測を実行するマルチタスク教師付きディープニューラルネットワークによって実現されている。
本発明のネットワークは、手術針分割用ダイススコア0.67、針ホルダ計器セグメンテーション0.81、深さ推定用平均絶対誤差6.5mmを達成する。
論文 参考訳(メタデータ) (2020-01-19T19:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。