論文の概要: Situation Awareness for Automated Surgical Check-listing in AI-Assisted
Operating Room
- arxiv url: http://arxiv.org/abs/2209.05056v1
- Date: Mon, 12 Sep 2022 07:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:28:04.883215
- Title: Situation Awareness for Automated Surgical Check-listing in AI-Assisted
Operating Room
- Title(参考訳): AI支援手術室における自動手術チェックリスト作成の状況把握
- Authors: Tochukwu Onyeogulu, Amirul Islam, Salman Khan, Izzeddin Teeti, Fabio
Cuzzolin
- Abstract要約: 手術器具の検出を強化するため、YOLOV5オブジェクト検出器に一連の改良が加えられた。
アブレーション研究を行い, YOLOv5モデルの背骨, 頸部, アンカー構造要素を改変し, 独自の内視鏡データセットを付加した。
mAPの98.3%のモデル性能と同様の推論速度を持つYOLOv3-SPPを除いて、我々のベンチマークモデルはすべて、我々の上位モデルに取って代わられた。
- 参考スコア(独自算出の注目度): 16.131062120232922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, there are more surgical procedures that are being performed using
minimally invasive surgery (MIS). This is due to its many benefits, such as
minimal post-operative problems, less bleeding, minor scarring, and a speedy
recovery. However, the MIS's constrained field of view, small operating room,
and indirect viewing of the operating scene could lead to surgical tools
colliding and potentially harming human organs or tissues. Therefore, MIS
problems can be considerably reduced, and surgical procedure accuracy and
success rates can be increased by using an endoscopic video feed to detect and
monitor surgical instruments in real-time. In this paper, a set of improvements
made to the YOLOV5 object detector to enhance the detection of surgical
instruments was investigated, analyzed, and evaluated. In doing this, we
performed performance-based ablation studies, explored the impact of altering
the YOLOv5 model's backbone, neck, and anchor structural elements, and
annotated a unique endoscope dataset. Additionally, we compared the
effectiveness of our ablation investigations with that of four additional SOTA
object detectors (YOLOv7, YOLOR, Scaled-YOLOv4 and YOLOv3-SPP). Except for
YOLOv3-SPP, which had the same model performance of 98.3% in mAP and a similar
inference speed, all of our benchmark models, including the original YOLOv5,
were surpassed by our top refined model in experiments using our fresh
endoscope dataset.
- Abstract(参考訳): 現在、より少ない侵襲的手術(MIS)を用いて外科的手術が実施されている。
これは、手術後の最小限の問題、出血の減少、軽傷の軽傷、迅速な回復など、多くの利点があるためである。
しかし、MISの制約された視野、小さな手術室、手術シーンの間接的な観察は、人間の臓器や組織を衝突させ、潜在的に損傷を与える可能性がある。
そのため、MISの問題は大幅に減少し、内視鏡的ビデオフィードを用いて外科用機器をリアルタイムで検出・監視することにより、手術手順の精度と成功率を高めることができる。
本稿では, 手術器具の検出を向上するために, YOLOV5オブジェクト検出器の一連の改良について検討, 解析, 評価を行った。
そこで我々は、パフォーマンスベースのアブレーション研究を行い、YOLOv5モデルのバックボーン、ネック、アンカー構造要素を変更する影響を調査し、ユニークな内視鏡データセットを注釈付けした。
さらに,4種類のSOTA検出器(YOLOv7,YOLOR,Scaled-YOLOv4,YOLOv3-SPP)のアブレーション試験の有効性を比較検討した。
mAP 98.3% のモデル性能と同様の推論速度を持つ YOLOv3-SPP を除いて、最初の YOLOv5 を含むベンチマークモデルは全て、我々の新しい内視鏡データセットを用いた実験において、我々の最も洗練されたモデルに取って代わられた。
関連論文リスト
- Pediatric Wrist Fracture Detection Using Feature Context Excitation Modules in X-ray Images [0.0]
この作業では4種類のFeature Contexts Excitation-YOLOv8モデルを導入し、それぞれ異なるFCEモジュールを組み込んだ。
GRAZPEDWRI-DXデータセットの実験結果から,提案したYOLOv8+GC-M3モデルにより,mAP@50値が65.78%から66.32%に向上することが示された。
提案した YOLOv8+SE-M3 モデルは,最大 mAP@50 値67.07% を実現し,SOTA 性能を上回った。
論文 参考訳(メタデータ) (2024-10-01T19:45:01Z) - Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - LSM-YOLO: A Compact and Effective ROI Detector for Medical Detection [8.812471041082105]
軽量適応抽出(LAE)とマルチパスシャント特徴マッチング(MSFM)を組み合わせた軽量シャントマッチングヨロ(LSM-YOLO)という新しいモデルを提案する。
LSM-YOLOは、膵腫瘍のプライベートデータセットで48.6%AP、BCCD血液細胞検出公開データセットで65.1%AP、Br35h脳腫瘍検出公開データセットで73.0%APを達成した。
論文 参考訳(メタデータ) (2024-08-26T08:16:58Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - COVID-19 Detection Using CT Image Based On YOLOv5 Network [31.848436570442704]
Kaggleプラットフォームが提供するデータセットと、モデルとしてYOLOv5を選択します。
本研究は,作業部における客観的検出手法について紹介する。
対物検出は、1段と2段の2つのストリームに分けることができる。
論文 参考訳(メタデータ) (2022-01-24T21:50:58Z) - The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods [15.833413083110903]
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
論文 参考訳(メタデータ) (2021-04-07T15:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。