論文の概要: Comparative Validation of Machine Learning Algorithms for Surgical
Workflow and Skill Analysis with the HeiChole Benchmark
- arxiv url: http://arxiv.org/abs/2109.14956v1
- Date: Thu, 30 Sep 2021 09:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:57:37.112031
- Title: Comparative Validation of Machine Learning Algorithms for Surgical
Workflow and Skill Analysis with the HeiChole Benchmark
- Title(参考訳): HeiCholeベンチマークによる手術ワークフローとスキル分析のための機械学習アルゴリズムの比較検証
- Authors: Martin Wagner, Beat-Peter M\"uller-Stich, Anna Kisilenko, Duc Tran,
Patrick Heger, Lars M\"undermann, David M Lubotsky, Benjamin M\"uller,
Tornike Davitashvili, Manuela Capek, Annika Reinke, Tong Yu, Armine
Vardazaryan, Chinedu Innocent Nwoye, Nicolas Padoy, Xinyang Liu, Eung-Joo
Lee, Constantin Disch, Hans Meine, Tong Xia, Fucang Jia, Satoshi Kondo,
Wolfgang Reiter, Yueming Jin, Yonghao Long, Meirui Jiang, Qi Dou, Pheng Ann
Heng, Isabell Twick, Kadir Kirtac, Enes Hosgor, Jon Lindstr\"om Bolmgren,
Michael Stenzel, Bj\"orn von Siemens, Hannes G. Kenngott, Felix Nickel,
Moritz von Frankenberg, Franziska Mathis-Ullrich, Lena Maier-Hein, Stefanie
Speidel, Sebastian Bodenstedt
- Abstract要約: 外科的ワークフローとスキル分析は、次世代の認知外科補助システムにおいて重要な技術である。
マルチセンター環境における位相認識アルゴリズムの一般化可能性について検討した。
- 参考スコア(独自算出の注目度): 36.37186411201134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PURPOSE: Surgical workflow and skill analysis are key technologies for the
next generation of cognitive surgical assistance systems. These systems could
increase the safety of the operation through context-sensitive warnings and
semi-autonomous robotic assistance or improve training of surgeons via
data-driven feedback. In surgical workflow analysis up to 91% average precision
has been reported for phase recognition on an open data single-center dataset.
In this work we investigated the generalizability of phase recognition
algorithms in a multi-center setting including more difficult recognition tasks
such as surgical action and surgical skill. METHODS: To achieve this goal, a
dataset with 33 laparoscopic cholecystectomy videos from three surgical centers
with a total operation time of 22 hours was created. Labels included annotation
of seven surgical phases with 250 phase transitions, 5514 occurences of four
surgical actions, 6980 occurences of 21 surgical instruments from seven
instrument categories and 495 skill classifications in five skill dimensions.
The dataset was used in the 2019 Endoscopic Vision challenge, sub-challenge for
surgical workflow and skill analysis. Here, 12 teams submitted their machine
learning algorithms for recognition of phase, action, instrument and/or skill
assessment. RESULTS: F1-scores were achieved for phase recognition between
23.9% and 67.7% (n=9 teams), for instrument presence detection between 38.5%
and 63.8% (n=8 teams), but for action recognition only between 21.8% and 23.3%
(n=5 teams). The average absolute error for skill assessment was 0.78 (n=1
team). CONCLUSION: Surgical workflow and skill analysis are promising
technologies to support the surgical team, but are not solved yet, as shown by
our comparison of algorithms. This novel benchmark can be used for comparable
evaluation and validation of future work.
- Abstract(参考訳): 目的: 次世代認知外科支援システムにおいて,手術ワークフローとスキル分析が重要な技術である。
これらのシステムは、文脈に敏感な警告や半自律的なロボット支援を通じて手術の安全性を高め、データ駆動フィードバックによる外科医の訓練を改善する。
手術ワークフロー分析では、オープンデータ単一センターデータセットでの位相認識について、最大91%の精度が報告されている。
本研究では,手術動作や手術スキルなどのより難しい認識タスクを含む多施設における位相認識アルゴリズムの一般化可能性について検討した。
方法: この目的を達成するために, 腹腔鏡下胆嚢摘出33例を3手術センターから採取し, 総手術時間は22時間であった。
ラベルには、250の位相遷移を持つ7つの手術段階のアノテーション、4つの手術行動の5514の出現、7つの器具カテゴリーからの21の手術器具の6980の出現、5つのスキル次元の495のスキル分類が含まれる。
このデータセットは、2019年の内視鏡ビジョンチャレンジ、外科的ワークフローとスキル分析のためのサブチャレンジで使用された。
ここでは12チームが、フェーズ、アクション、計器、スキルアセスメントの認識のための機械学習アルゴリズムを提出した。
結果:f1-スコアは23.9%から67.7%(n=9チーム)、計器存在検出は38.5%から63.8%(n=8チーム)、アクション認識は21.8%から23.3%(n=5チーム)であった。
スキルアセスメントの平均絶対誤差は0.78(n=1チーム)である。
ConCLUSION: 手術のワークフローとスキル分析は,手術チームを支援する上で有望な技術だが,アルゴリズムの比較で示すように,まだ解決されていない。
この新しいベンチマークは、将来の作業に対する比較評価と検証に使用できる。
関連論文リスト
- PitVis-2023 Challenge: Workflow Recognition in videos of Endoscopic Pituitary Surgery [46.2901962659261]
The Pituitary Vision (VisVis) 2023 Challengeは、内視鏡下垂体手術のビデオで、コミュニティに認識のステップと計測を課している。
これは、より小さな作業スペースのため、他の最小侵襲の手術と比較しても、ユニークなタスクである。
6つの国にまたがる9チームから18のチームがあり、さまざまなディープラーニングモデルを使用していた。
論文 参考訳(メタデータ) (2024-09-02T11:38:06Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - Exploring Deep Learning Methods for Real-Time Surgical Instrument
Segmentation in Laparoscopy [0.4155459804992016]
腹腔鏡下手術器具の自動分節法について, 一般的な深層学習法について検討し, 比較を行った。
実験の結果,Dual Decoder attention network (DDNet) は近年の深層学習に比べて優れた結果が得られた。
論文 参考訳(メタデータ) (2021-07-05T23:32:05Z) - MIcro-Surgical Anastomose Workflow recognition challenge report [12.252332806968756]
MISAW(Micro-Surgical Anastomose recognition on training session)の課題は、人工血管のマイクロサージカルアナスモシス27配列のデータセットを提供した。
このデータセットは、フェーズ、ステップ、アクティビティの3つの異なる粒度レベルで記述されたビデオ、キネマティクス、ワークフローアノテーションで構成されています。
最高のモデルは、段階認識の95%以上のAD精度、ステップ認識の80%、アクティビティ認識の60%、すべての粒度レベルの75%を達成しました。
論文 参考訳(メタデータ) (2021-03-24T11:34:09Z) - Surgical Skill Assessment on In-Vivo Clinical Data via the Clearness of
Operating Field [18.643159726513133]
本論文では,実際の臨床データセットを用いて外科的スキルアセスメントについて検討する。
手術領域のクリアネス(COF)は総合的な外科的スキルの指標として有用である。
COFのプロキシを通じて外科的スキルを予測するための,客観的かつ自動化されたフレームワークを提案する。
実験では, 提案手法はスピアマンの0.55の相関性を, 総合技術技術の基礎的真理と比較した。
論文 参考訳(メタデータ) (2020-08-27T07:12:16Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。