論文の概要: Why Deep Surgical Models Fail?: Revisiting Surgical Action Triplet
Recognition through the Lens of Robustness
- arxiv url: http://arxiv.org/abs/2209.08647v1
- Date: Sun, 18 Sep 2022 20:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:09:13.589541
- Title: Why Deep Surgical Models Fail?: Revisiting Surgical Action Triplet
Recognition through the Lens of Robustness
- Title(参考訳): 深部手術モデルはなぜ失敗するのか?
ロバスト性レンズによる手術行動トリプルト認識の再検討
- Authors: Yanqi Cheng, Lihao Liu, Shujun Wang, Yueming Jin, Carola-Bibiane
Sch\"onlieb, Angelica I. Aviles-Rivero
- Abstract要約: 本稿では,既存のディープラーニングモデルの失敗を,頑健さと説明可能性のレンズを通して理解するための最初の研究について述べる。
本研究は,性能向上と信頼性向上の鍵が,中核的かつ突発的な属性にあることを明らかにする。
- 参考スコア(独自算出の注目度): 7.830866912325095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical action triplet recognition provides a better understanding of the
surgical scene. This task is of high relevance as it provides to the surgeon
with context-aware support and safety. The current go-to strategy for improving
performance is the development of new network mechanisms. However, the
performance of current state-of-the-art techniques is substantially lower than
other surgical tasks. Why is this happening? This is the question that we
address in this work. We present the first study to understand the failure of
existing deep learning models through the lens of robustness and explainabilty.
Firstly, we study current existing models under weak and strong
$\delta-$perturbations via adversarial optimisation scheme. We then provide the
failure modes via feature based explanations. Our study revels that the key for
improving performance and increasing reliability is in the core and spurious
attributes. Our work opens the door to more trustworthiness and reliability
deep learning models in surgical science.
- Abstract(参考訳): 手術行動の三重項認識は手術場面をよりよく理解する。
このタスクは、外科医にコンテキスト認識のサポートと安全性を提供するため、非常に関連性が高い。
パフォーマンスを改善するための現在の戦略は、新しいネットワークメカニズムの開発である。
しかし、現在の最先端技術の性能は他の外科的作業よりもかなり低い。
なぜこんなことが起こるの?
これは私たちがこの仕事で取り組んだ質問です。
本稿では,既存のディープラーニングモデルの失敗をロバスト性と説明可能性のレンズを通して理解する最初の研究を行う。
まず、逆最適化スキームを用いて、現在のモデルについて弱く強い$\delta-$perturbationsの下で検討する。
次に、機能ベースの説明を通じて障害モードを提供します。
本研究は,性能向上と信頼性向上の鍵が,中核的かつ突発的な属性にあることを明らかにする。
我々の研究は、外科科学における信頼性と信頼性の高いディープラーニングモデルへの扉を開く。
関連論文リスト
- Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - Surgical-DINO: Adapter Learning of Foundation Models for Depth
Estimation in Endoscopic Surgery [12.92291406687467]
内視鏡手術における深度推定のためのDINOv2の低ランク適応であるDINO-DINOと呼ばれる基礎モデルに基づく深度推定法を設計する。
従来の微調整ではなく,手術固有のドメイン知識に適応するため,LoRA層を構築してDINOに統合する。
本モデルは,ダ・ヴィンチXi内視鏡手術から収集したSCAREDのMICCAIチャレンジデータセット上で広範囲に検証されている。
論文 参考訳(メタデータ) (2024-01-11T16:22:42Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Adaptation of Surgical Activity Recognition Models Across Operating
Rooms [10.625208343893911]
手術室における手術活動認識モデルの一般化可能性について検討した。
外科的活動認識モデルの性能を向上させるための新しい領域適応法を提案する。
論文 参考訳(メタデータ) (2022-07-07T04:41:34Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - SuPer Deep: A Surgical Perception Framework for Robotic Tissue
Manipulation using Deep Learning for Feature Extraction [25.865648975312407]
深層学習を外科的知覚に活用する。
我々は,効率的な特徴抽出が可能なディープニューラルネットワークを組織再構成と機器のポーズ推定プロセスに統合した。
本フレームワークは, 深層学習を特徴抽出に用いることにより, 手術環境における最先端の追跡性能を実現する。
論文 参考訳(メタデータ) (2020-03-07T00:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。