論文の概要: Computer Vision for Increased Operative Efficiency via Identification of
Instruments in the Neurosurgical Operating Room: A Proof-of-Concept Study
- arxiv url: http://arxiv.org/abs/2312.03001v1
- Date: Sun, 3 Dec 2023 19:01:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 17:37:25.808085
- Title: Computer Vision for Increased Operative Efficiency via Identification of
Instruments in the Neurosurgical Operating Room: A Proof-of-Concept Study
- Title(参考訳): 神経外科手術室における機器識別による手術効率向上のためのコンピュータビジョン : 概念実証研究
- Authors: Tanner J. Zachem (1,2), Sully F. Chen (1), Vishal Venkatraman (1),
David AW Sykes (1), Ravi Prakash (2), Samantha Spellicy (1), Alexander D
Suarez (1), Weston Ross (1), Patrick J. Codd (1,2) ((1) Department of
Neurosurgery, Duke University School of Medicine, Durham, NC, USA, (2)
Department of Mechanical Engineering and Materials Science, Duke University,
Durham, NC, USA)
- Abstract要約: コンピュータビジョン(英: Computer Vision, CV)は、機械が画像やビデオの解釈と理解を可能にする人工知能の分野である。
CVは手術器具を追跡するために手術室(OR)で補助を受ける可能性がある。
我々は神経外科手術室で手術器具を識別するためのCVアルゴリズムを構築した。
- 参考スコア(独自算出の注目度): 27.307350821027967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objectives Computer vision (CV) is a field of artificial intelligence that
enables machines to interpret and understand images and videos. CV has the
potential to be of assistance in the operating room (OR) to track surgical
instruments. We built a CV algorithm for identifying surgical instruments in
the neurosurgical operating room as a potential solution for surgical
instrument tracking and management to decrease surgical waste and opening of
unnecessary tools. Methods We collected 1660 images of 27 commonly used
neurosurgical instruments. Images were labeled using the VGG Image Annotator
and split into 80% training and 20% testing sets in order to train a U-Net
Convolutional Neural Network using 5-fold cross validation. Results Our U-Net
achieved a tool identification accuracy of 80-100% when distinguishing 25
classes of instruments, with 19/25 classes having accuracy over 90%. The model
performance was not adequate for sub classifying Adson, Gerald, and Debakey
forceps, which had accuracies of 60-80%. Conclusions We demonstrated the
viability of using machine learning to accurately identify surgical
instruments. Instrument identification could help optimize surgical tray
packing, decrease tool usage and waste, decrease incidence of instrument
misplacement events, and assist in timing of routine instrument maintenance.
More training data will be needed to increase accuracy across all surgical
instruments that would appear in a neurosurgical operating room. Such
technology has the potential to be used as a method to be used for proving what
tools are truly needed in each type of operation allowing surgeons across the
world to do more with less.
- Abstract(参考訳): Objectives Computer Vision(CV)は、機械が画像やビデオの解釈と理解を可能にする人工知能の分野である。
CVは手術器具を追跡するために手術室(OR)で補助を受ける可能性がある。
我々は,神経外科手術室の手術器具を識別するためのcvアルゴリズムを,手術器具の追跡と管理の潜在的な解決策として開発した。
方法】神経外科手術器具27台1660枚を採取した。
画像はVGG Image Annotatorを使用してラベル付けされ、5倍のクロスバリデーションを使用してU-Net Convolutional Neural Networkをトレーニングするために80%のトレーニングと20%のテストセットに分割された。
結果:U-Netでは,25種類の楽器を識別するツール識別精度が80-100%,19/25級が90%以上であった。
モデル性能は,60~80%の精度を持つadson,gerald,debakey forcepsのサブ分類には不十分であった。
結論 手術器具を正確に識別する機械学習の有用性を実証した。
器具の識別は、手術用トレイパッキングの最適化、工具使用量と廃棄物の削減、計器ミスプレースの発生率の低減、定期的な計器メンテナンスのタイミングの補助に役立つ。
神経外科手術室に現れるすべての手術器具の精度を高めるには、さらなるトレーニングデータが必要である。
このような技術は、各手術で本当に必要なツールを証明する方法として使われる可能性があり、世界中の外科医がより少ない労力でできることを証明できる。
関連論文リスト
- Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、外科デジタルツイン(SDT)とも呼ばれる現実世界の手術の仮想レプリカを作成する過程である。
現実的な条件下での脊髄手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Using Hand Pose Estimation To Automate Open Surgery Training Feedback [0.0]
本研究は,外科医の自動訓練における最先端のコンピュータビジョンアルゴリズムの利用を促進することを目的としている。
2次元手のポーズを推定することにより,手の動きをモデル化し,手術器具との相互作用をモデル化する。
論文 参考訳(メタデータ) (2022-11-13T21:47:31Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Exploring Deep Learning Methods for Real-Time Surgical Instrument
Segmentation in Laparoscopy [0.4155459804992016]
腹腔鏡下手術器具の自動分節法について, 一般的な深層学習法について検討し, 比較を行った。
実験の結果,Dual Decoder attention network (DDNet) は近年の深層学習に比べて優れた結果が得られた。
論文 参考訳(メタデータ) (2021-07-05T23:32:05Z) - Mapping Surgeon's Hand/Finger Motion During Conventional Microsurgery to
Enhance Intuitive Surgical Robot Teleoperation [0.5635300481123077]
現在の人間とロボットのインターフェイスは直感的な遠隔操作がなく、外科医の手や指の動きを模倣することはできない。
本研究は, 心臓微小外科手術における外科医の総手の動きと微細なシナジー運動を直感的に記録し, マッピングする方法を示すパイロット研究である。
論文 参考訳(メタデータ) (2021-02-21T11:21:30Z) - Autonomously Navigating a Surgical Tool Inside the Eye by Learning from
Demonstration [28.720332497794292]
本稿では,タスクの専門的なデモンストレーションを模倣する学習を通じて,ツールナビゲーションタスクを自動化することを提案する。
深層ネットワークは、ユーザが指定した目標に記録された視覚サーボに基づいて、網膜上の様々な場所に向かう専門家の軌跡を模倣するように訓練される。
このネットワークは, 物理実験では137ミクロン, シミュレーションでは94ミクロンの範囲内で, 針外科用具を様々な所へ確実に移動可能であることを示す。
論文 参考訳(メタデータ) (2020-11-16T08:30:02Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。