論文の概要: Objective Surgical Skills Assessment and Tool Localization: Results from
the MICCAI 2021 SimSurgSkill Challenge
- arxiv url: http://arxiv.org/abs/2212.04448v1
- Date: Thu, 8 Dec 2022 18:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:50:10.889578
- Title: Objective Surgical Skills Assessment and Tool Localization: Results from
the MICCAI 2021 SimSurgSkill Challenge
- Title(参考訳): miccai 2021 simsurgskill challengeにおける客観的手術スキル評価とツールローカライズ
- Authors: Aneeq Zia, Kiran Bhattacharyya, Xi Liu, Ziheng Wang, Max Berniker,
Satoshi Kondo, Emanuele Colleoni, Dimitris Psychogyios, Yueming Jin, Jinfan
Zhou, Evangelos Mazomenos, Lena Maier-Hein, Danail Stoyanov, Stefanie
Speidel, Anthony Jarc
- Abstract要約: SimSurgSkill 2021(MICCAI 2021でEndoVisのサブチャレンジとしてホスト)は、この取り組みの促進と促進を目的としている。
競技者は、機器のローカライズと外科的スキルの予測を任された。
この公開データセットとその結果をスプーンボードとして使用することで、将来の研究は、外科データ科学の進歩を伴う外科医のより効率的な訓練を可能にする可能性がある。
- 参考スコア(独自算出の注目度): 11.007322707874184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timely and effective feedback within surgical training plays a critical role
in developing the skills required to perform safe and efficient surgery.
Feedback from expert surgeons, while especially valuable in this regard, is
challenging to acquire due to their typically busy schedules, and may be
subject to biases. Formal assessment procedures like OSATS and GEARS attempt to
provide objective measures of skill, but remain time-consuming. With advances
in machine learning there is an opportunity for fast and objective automated
feedback on technical skills. The SimSurgSkill 2021 challenge (hosted as a
sub-challenge of EndoVis at MICCAI 2021) aimed to promote and foster work in
this endeavor. Using virtual reality (VR) surgical tasks, competitors were
tasked with localizing instruments and predicting surgical skill. Here we
summarize the winning approaches and how they performed. Using this publicly
available dataset and results as a springboard, future work may enable more
efficient training of surgeons with advances in surgical data science. The
dataset can be accessed from
https://console.cloud.google.com/storage/browser/isi-simsurgskill-2021.
- Abstract(参考訳): 手術訓練におけるタイムリーで効果的なフィードバックは、安全で効率的な手術を行うために必要なスキルを開発する上で重要な役割を果たす。
専門医からのフィードバックは、この点では特に価値があるが、通常忙しいスケジュールのため取得が困難であり、バイアスにさらされる可能性がある。
OSATSやGEARSのような形式的評価手順は、客観的なスキルの尺度を提供しようとするが、時間を要する。
機械学習の進歩により、技術スキルに対する迅速かつ客観的なフィードバックの機会がある。
SimSurgSkill 2021チャレンジ(MICCAI 2021でEndoVisのサブチャレンジとして開催)は、この取り組みの促進と促進を目的としている。
バーチャルリアリティー(VR)の手術タスクを使用して、競技者は機器のローカライズと手術スキルの予測を任された。
ここでは、勝利のアプローチとその実行方法を要約する。
この公開データセットとその結果をスプリングボードとして使用することで、外科データサイエンスの進歩を持つ外科医のより効率的なトレーニングが可能になるかもしれない。
データセットはhttps://console.cloud.google.com/storage/browser/isi-simsurgskill-2021からアクセスできる。
関連論文リスト
- Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - PitVis-2023 Challenge: Workflow Recognition in videos of Endoscopic Pituitary Surgery [46.2901962659261]
The Pituitary Vision (VisVis) 2023 Challengeは、内視鏡下垂体手術のビデオで、コミュニティに認識のステップと計測を課している。
これは、より小さな作業スペースのため、他の最小侵襲の手術と比較しても、ユニークなタスクである。
6つの国にまたがる9チームから18のチームがあり、さまざまなディープラーニングモデルを使用していた。
論文 参考訳(メタデータ) (2024-09-02T11:38:06Z) - Enhancing Surgical Performance in Cardiothoracic Surgery with
Innovations from Computer Vision and Artificial Intelligence: A Narrative
Review [12.241487673677517]
このナラティブレビューは、技術的および非技術的外科的スキル、タスクパフォーマンス、ポーズ推定に関する研究をまとめたものである。
これは、コンピュータビジョンと人工知能の革新によって、心胸部外科的パフォーマンスを向上する新たな機会を描いている。
論文 参考訳(メタデータ) (2024-02-17T14:16:25Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Deep Multimodal Fusion for Surgical Feedback Classification [70.53297887843802]
外科的フィードバックの5カテゴリー分類を臨床的に検証した。
次に,テキスト,音声,ビデオモダリティの入力から,これらの5つのカテゴリの外科的フィードバックを分類するために,多ラベル機械学習モデルを開発した。
我々の研究の最終的な目標は、リアルタイムな文脈的外科的フィードバックのアノテーションを大規模に自動化することである。
論文 参考訳(メタデータ) (2023-12-06T01:59:47Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods [15.833413083110903]
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
論文 参考訳(メタデータ) (2021-04-07T15:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。