論文の概要: OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery
- arxiv url: http://arxiv.org/abs/2402.06985v1
- Date: Sat, 10 Feb 2024 16:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:06:57.194688
- Title: OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery
- Title(参考訳): OSSAR:ロボット支援手術におけるオープンセット手術活動認識を目指して
- Authors: Long Bai, Guankun Wang, Jie Wang, Xiaoxiao Yang, Huxin Gao, Xin Liang,
An Wang, Mobarakol Islam, Hongliang Ren
- Abstract要約: 本稿では,OSSAR(Open-Set Surgery Activity Recognition)フレームワークについて紹介する。
提案手法は超球面逆点戦略を利用して特徴空間における未知クラスと未知クラスとの区別を強化する。
我々の主張をサポートするために、公開JIGSAWSデータセットを利用したオープンセットの外科的活動ベンチマークを構築した。
- 参考スコア(独自算出の注目度): 13.843251369739908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of automated robotic surgery and computer-assisted
interventions, understanding robotic surgical activities stands paramount.
Existing algorithms dedicated to surgical activity recognition predominantly
cater to pre-defined closed-set paradigms, ignoring the challenges of
real-world open-set scenarios. Such algorithms often falter in the presence of
test samples originating from classes unseen during training phases. To tackle
this problem, we introduce an innovative Open-Set Surgical Activity Recognition
(OSSAR) framework. Our solution leverages the hyperspherical reciprocal point
strategy to enhance the distinction between known and unknown classes in the
feature space. Additionally, we address the issue of over-confidence in the
closed set by refining model calibration, avoiding misclassification of unknown
classes as known ones. To support our assertions, we establish an open-set
surgical activity benchmark utilizing the public JIGSAWS dataset. Besides, we
also collect a novel dataset on endoscopic submucosal dissection for surgical
activity tasks. Extensive comparisons and ablation experiments on these
datasets demonstrate the significant outperformance of our method over existing
state-of-the-art approaches. Our proposed solution can effectively address the
challenges of real-world surgical scenarios. Our code is publicly accessible at
https://github.com/longbai1006/OSSAR.
- Abstract(参考訳): ロボット手術とコンピュータ支援の分野では、ロボット外科活動を理解することが最重要である。
外科的活動認識に特化した既存のアルゴリズムは、主に定義済みのクローズドセットパラダイムに対応しており、現実世界のオープンセットシナリオの課題を無視している。
このようなアルゴリズムは、トレーニングフェーズ中に見つからないクラスから派生したテストサンプルの存在にしばしば干渉する。
そこで本研究では,ossar(open-set surgical activity recognition)フレームワークを提案する。
我々の解は超球面逆点戦略を利用して、特徴空間における既知のクラスと未知のクラスを区別する。
さらに,モデルキャリブレーションを精錬し,未知のクラスを既知のクラスとして誤分類することを避けることで,閉集合における過剰信頼の問題に対処する。
このアサーションをサポートするために,jigsawsデータセットを用いたオープンセットの手術活動ベンチマークを構築した。
また,内視鏡下粘膜下郭清の手術活動に関する新しいデータも収集した。
これらのデータセットにおける広範囲な比較とアブレーション実験は、既存の最先端のアプローチよりも優れた性能を示す。
提案手法は実世界の手術シナリオの課題を効果的に解決できる。
私たちのコードはhttps://github.com/longbai1006/OSSARで公開されています。
関連論文リスト
- ZEAL: Surgical Skill Assessment with Zero-shot Tool Inference Using Unified Foundation Model [0.07143413923310668]
本研究はZEAL (unifiEd foundAtion modeLを用いたゼロショット手術ツールセグメンテーションによる外科的スキル評価)について紹介する。
ZEALはセグメンテーションマスクを予測し、楽器と周辺の両方の本質的な特徴を捉えている。
外科的スキルスコアを生成し、客観的な熟練度を提供する。
論文 参考訳(メタデータ) (2024-07-03T01:20:56Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods [15.833413083110903]
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
論文 参考訳(メタデータ) (2021-04-07T15:11:51Z) - Learning Invariant Representation of Tasks for Robust Surgical State
Estimation [39.515036686428836]
外科的タスク不変状態推定ネットワークであるStiseNetを提案する。
StiseNetは、RASデータセット固有の外科的テクニックや手術環境のバリエーションの影響を最小限に抑える。
3つのデータセット上での最先端状態推定法より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-18T02:32:50Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。