論文の概要: Situation Awareness for Automated Surgical Check-listing in AI-Assisted
Operating Room
- arxiv url: http://arxiv.org/abs/2209.05056v1
- Date: Mon, 12 Sep 2022 07:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:28:04.883215
- Title: Situation Awareness for Automated Surgical Check-listing in AI-Assisted
Operating Room
- Title(参考訳): AI支援手術室における自動手術チェックリスト作成の状況把握
- Authors: Tochukwu Onyeogulu, Amirul Islam, Salman Khan, Izzeddin Teeti, Fabio
Cuzzolin
- Abstract要約: 手術器具の検出を強化するため、YOLOV5オブジェクト検出器に一連の改良が加えられた。
アブレーション研究を行い, YOLOv5モデルの背骨, 頸部, アンカー構造要素を改変し, 独自の内視鏡データセットを付加した。
mAPの98.3%のモデル性能と同様の推論速度を持つYOLOv3-SPPを除いて、我々のベンチマークモデルはすべて、我々の上位モデルに取って代わられた。
- 参考スコア(独自算出の注目度): 16.131062120232922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, there are more surgical procedures that are being performed using
minimally invasive surgery (MIS). This is due to its many benefits, such as
minimal post-operative problems, less bleeding, minor scarring, and a speedy
recovery. However, the MIS's constrained field of view, small operating room,
and indirect viewing of the operating scene could lead to surgical tools
colliding and potentially harming human organs or tissues. Therefore, MIS
problems can be considerably reduced, and surgical procedure accuracy and
success rates can be increased by using an endoscopic video feed to detect and
monitor surgical instruments in real-time. In this paper, a set of improvements
made to the YOLOV5 object detector to enhance the detection of surgical
instruments was investigated, analyzed, and evaluated. In doing this, we
performed performance-based ablation studies, explored the impact of altering
the YOLOv5 model's backbone, neck, and anchor structural elements, and
annotated a unique endoscope dataset. Additionally, we compared the
effectiveness of our ablation investigations with that of four additional SOTA
object detectors (YOLOv7, YOLOR, Scaled-YOLOv4 and YOLOv3-SPP). Except for
YOLOv3-SPP, which had the same model performance of 98.3% in mAP and a similar
inference speed, all of our benchmark models, including the original YOLOv5,
were surpassed by our top refined model in experiments using our fresh
endoscope dataset.
- Abstract(参考訳): 現在、より少ない侵襲的手術(MIS)を用いて外科的手術が実施されている。
これは、手術後の最小限の問題、出血の減少、軽傷の軽傷、迅速な回復など、多くの利点があるためである。
しかし、MISの制約された視野、小さな手術室、手術シーンの間接的な観察は、人間の臓器や組織を衝突させ、潜在的に損傷を与える可能性がある。
そのため、MISの問題は大幅に減少し、内視鏡的ビデオフィードを用いて外科用機器をリアルタイムで検出・監視することにより、手術手順の精度と成功率を高めることができる。
本稿では, 手術器具の検出を向上するために, YOLOV5オブジェクト検出器の一連の改良について検討, 解析, 評価を行った。
そこで我々は、パフォーマンスベースのアブレーション研究を行い、YOLOv5モデルのバックボーン、ネック、アンカー構造要素を変更する影響を調査し、ユニークな内視鏡データセットを注釈付けした。
さらに,4種類のSOTA検出器(YOLOv7,YOLOR,Scaled-YOLOv4,YOLOv3-SPP)のアブレーション試験の有効性を比較検討した。
mAP 98.3% のモデル性能と同様の推論速度を持つ YOLOv3-SPP を除いて、最初の YOLOv5 を含むベンチマークモデルは全て、我々の新しい内視鏡データセットを用いた実験において、我々の最も洗練されたモデルに取って代わられた。
関連論文リスト
- Monocular Microscope to CT Registration using Pose Estimation of the
Incus for Augmented Reality Cochlear Implant Surgery [3.8909273404657556]
本研究では, 外部追跡装置を必要とせず, 2次元から3次元の観察顕微鏡映像を直接CTスキャンに登録する手法を開発した。
その結果, x, y, z軸の平均回転誤差は25度未満, 翻訳誤差は2mm, 3mm, 0.55%であった。
論文 参考訳(メタデータ) (2024-03-12T00:26:08Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Adaptation of Surgical Activity Recognition Models Across Operating
Rooms [10.625208343893911]
手術室における手術活動認識モデルの一般化可能性について検討した。
外科的活動認識モデルの性能を向上させるための新しい領域適応法を提案する。
論文 参考訳(メタデータ) (2022-07-07T04:41:34Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - COVID-19 Detection Using CT Image Based On YOLOv5 Network [31.848436570442704]
Kaggleプラットフォームが提供するデータセットと、モデルとしてYOLOv5を選択します。
本研究は,作業部における客観的検出手法について紹介する。
対物検出は、1段と2段の2つのストリームに分けることができる。
論文 参考訳(メタデータ) (2022-01-24T21:50:58Z) - Towards Robotic Knee Arthroscopy: Multi-Scale Network for Tissue-Tool
Segmentation [0.0]
組織-ツールセグメンテーションを実現するために,多スケール特徴をキャプチャし,形状特徴を統合した密結合型形状認識型マルチスケールセグメンテーションモデルを提案する。
一般公開されたPolypデータセットでは,提案したモデルが5.09%の精度向上を達成した。
論文 参考訳(メタデータ) (2021-10-06T11:20:01Z) - The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods [15.833413083110903]
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
論文 参考訳(メタデータ) (2021-04-07T15:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。