論文の概要: Computer Vision for Increased Operative Efficiency via Identification of
Instruments in the Neurosurgical Operating Room: A Proof-of-Concept Study
- arxiv url: http://arxiv.org/abs/2312.03001v1
- Date: Sun, 3 Dec 2023 19:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:37:25.808085
- Title: Computer Vision for Increased Operative Efficiency via Identification of
Instruments in the Neurosurgical Operating Room: A Proof-of-Concept Study
- Title(参考訳): 神経外科手術室における機器識別による手術効率向上のためのコンピュータビジョン : 概念実証研究
- Authors: Tanner J. Zachem (1,2), Sully F. Chen (1), Vishal Venkatraman (1),
David AW Sykes (1), Ravi Prakash (2), Samantha Spellicy (1), Alexander D
Suarez (1), Weston Ross (1), Patrick J. Codd (1,2) ((1) Department of
Neurosurgery, Duke University School of Medicine, Durham, NC, USA, (2)
Department of Mechanical Engineering and Materials Science, Duke University,
Durham, NC, USA)
- Abstract要約: コンピュータビジョン(英: Computer Vision, CV)は、機械が画像やビデオの解釈と理解を可能にする人工知能の分野である。
CVは手術器具を追跡するために手術室(OR)で補助を受ける可能性がある。
我々は神経外科手術室で手術器具を識別するためのCVアルゴリズムを構築した。
- 参考スコア(独自算出の注目度): 27.307350821027967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objectives Computer vision (CV) is a field of artificial intelligence that
enables machines to interpret and understand images and videos. CV has the
potential to be of assistance in the operating room (OR) to track surgical
instruments. We built a CV algorithm for identifying surgical instruments in
the neurosurgical operating room as a potential solution for surgical
instrument tracking and management to decrease surgical waste and opening of
unnecessary tools. Methods We collected 1660 images of 27 commonly used
neurosurgical instruments. Images were labeled using the VGG Image Annotator
and split into 80% training and 20% testing sets in order to train a U-Net
Convolutional Neural Network using 5-fold cross validation. Results Our U-Net
achieved a tool identification accuracy of 80-100% when distinguishing 25
classes of instruments, with 19/25 classes having accuracy over 90%. The model
performance was not adequate for sub classifying Adson, Gerald, and Debakey
forceps, which had accuracies of 60-80%. Conclusions We demonstrated the
viability of using machine learning to accurately identify surgical
instruments. Instrument identification could help optimize surgical tray
packing, decrease tool usage and waste, decrease incidence of instrument
misplacement events, and assist in timing of routine instrument maintenance.
More training data will be needed to increase accuracy across all surgical
instruments that would appear in a neurosurgical operating room. Such
technology has the potential to be used as a method to be used for proving what
tools are truly needed in each type of operation allowing surgeons across the
world to do more with less.
- Abstract(参考訳): Objectives Computer Vision(CV)は、機械が画像やビデオの解釈と理解を可能にする人工知能の分野である。
CVは手術器具を追跡するために手術室(OR)で補助を受ける可能性がある。
我々は,神経外科手術室の手術器具を識別するためのcvアルゴリズムを,手術器具の追跡と管理の潜在的な解決策として開発した。
方法】神経外科手術器具27台1660枚を採取した。
画像はVGG Image Annotatorを使用してラベル付けされ、5倍のクロスバリデーションを使用してU-Net Convolutional Neural Networkをトレーニングするために80%のトレーニングと20%のテストセットに分割された。
結果:U-Netでは,25種類の楽器を識別するツール識別精度が80-100%,19/25級が90%以上であった。
モデル性能は,60~80%の精度を持つadson,gerald,debakey forcepsのサブ分類には不十分であった。
結論 手術器具を正確に識別する機械学習の有用性を実証した。
器具の識別は、手術用トレイパッキングの最適化、工具使用量と廃棄物の削減、計器ミスプレースの発生率の低減、定期的な計器メンテナンスのタイミングの補助に役立つ。
神経外科手術室に現れるすべての手術器具の精度を高めるには、さらなるトレーニングデータが必要である。
このような技術は、各手術で本当に必要なツールを証明する方法として使われる可能性があり、世界中の外科医がより少ない労力でできることを証明できる。
関連論文リスト
- Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - PitVis-2023 Challenge: Workflow Recognition in videos of Endoscopic Pituitary Surgery [46.2901962659261]
The Pituitary Vision (VisVis) 2023 Challengeは、内視鏡下垂体手術のビデオで、コミュニティに認識のステップと計測を課している。
これは、より小さな作業スペースのため、他の最小侵襲の手術と比較しても、ユニークなタスクである。
6つの国にまたがる9チームから18のチームがあり、さまざまなディープラーニングモデルを使用していた。
論文 参考訳(メタデータ) (2024-09-02T11:38:06Z) - Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、現実世界の手術の仮想レプリカを作成するプロセスである。
脊椎外科手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Exploring Deep Learning Methods for Real-Time Surgical Instrument
Segmentation in Laparoscopy [0.4155459804992016]
腹腔鏡下手術器具の自動分節法について, 一般的な深層学習法について検討し, 比較を行った。
実験の結果,Dual Decoder attention network (DDNet) は近年の深層学習に比べて優れた結果が得られた。
論文 参考訳(メタデータ) (2021-07-05T23:32:05Z) - Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration [28.720332497794292]
本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
論文 参考訳(メタデータ) (2020-11-16T08:30:02Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。