論文の概要: Learning Invariant Representation of Tasks for Robust Surgical State
Estimation
- arxiv url: http://arxiv.org/abs/2102.09119v1
- Date: Thu, 18 Feb 2021 02:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-20 02:45:44.516537
- Title: Learning Invariant Representation of Tasks for Robust Surgical State
Estimation
- Title(参考訳): ロバスト手術状態推定のための課題の不変表現の学習
- Authors: Yidan Qin, Max Allan, Yisong Yue, Joel W. Burdick, Mahdi Azizian
- Abstract要約: 外科的タスク不変状態推定ネットワークであるStiseNetを提案する。
StiseNetは、RASデータセット固有の外科的テクニックや手術環境のバリエーションの影響を最小限に抑える。
3つのデータセット上での最先端状態推定法より優れていることを示す。
- 参考スコア(独自算出の注目度): 39.515036686428836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surgical state estimators in robot-assisted surgery (RAS) - especially those
trained via learning techniques - rely heavily on datasets that capture surgeon
actions in laboratory or real-world surgical tasks. Real-world RAS datasets are
costly to acquire, are obtained from multiple surgeons who may use different
surgical strategies, and are recorded under uncontrolled conditions in highly
complex environments. The combination of high diversity and limited data calls
for new learning methods that are robust and invariant to operating conditions
and surgical techniques. We propose StiseNet, a Surgical Task Invariance State
Estimation Network with an invariance induction framework that minimizes the
effects of variations in surgical technique and operating environments inherent
to RAS datasets. StiseNet's adversarial architecture learns to separate
nuisance factors from information needed for surgical state estimation.
StiseNet is shown to outperform state-of-the-art state estimation methods on
three datasets (including a new real-world RAS dataset: HERNIA-20).
- Abstract(参考訳): ロボット支援手術(RAS)の外科状態推定器(特に学習技術を介して訓練されたもの)は、実験室または実際の手術タスクで外科医の行動をキャプチャするデータセットに大きく依存します。
現実世界のRASデータセットは取得に費用がかかり、複数の外科医から取得され、異なる手術戦略を用いており、高度に複雑な環境で制御されていない状態で記録される。
高い多様性と限られたデータの組み合わせは、手術条件や手術技術に強く不変の新しい学習方法を必要とします。
本研究では,RASデータセットに固有の外科的手法および手術環境の変動の影響を最小限に抑える不変誘導フレームワークを備えた手術タスク不変状態推定ネットワークであるStiseNetを提案する。
StiseNetの敵対的アーキテクチャは、手術状態推定に必要な情報から迷惑要因を分離することを学ぶ。
StiseNetは、3つのデータセット(新しい現実世界のRASデータセットであるHERNIA-20を含む)で最先端の状態推定方法を上回ることが示されている。
関連論文リスト
- Realistic Data Generation for 6D Pose Estimation of Surgical Instruments [4.226502078427161]
手術器具の6次元ポーズ推定は,手術操作の自動実行を可能にするために重要である。
家庭や工業環境では、3Dコンピュータグラフィックスソフトウェアで生成された合成データが、アノテーションコストを最小限に抑える代替手段として示されている。
本稿では,大規模・多様なデータセットの自動生成を可能にする外科ロボティクスのシミュレーション環境の改善を提案する。
論文 参考訳(メタデータ) (2024-06-11T14:59:29Z) - OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery [13.843251369739908]
本稿では,OSSAR(Open-Set Surgery Activity Recognition)フレームワークについて紹介する。
提案手法は超球面逆点戦略を利用して特徴空間における未知クラスと未知クラスとの区別を強化する。
我々の主張をサポートするために、公開JIGSAWSデータセットを利用したオープンセットの外科的活動ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-02-10T16:23:12Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Cross-Dataset Adaptation for Instrument Classification in Cataract
Surgery Videos [54.1843419649895]
特定のデータセットでこのタスクをうまく実行する最先端モデルでは、別のデータセットでテストすると、パフォーマンスが低下する。
本稿では,Barlow Adaptorと呼ばれる新しいエンドツーエンドのUnsupervised Domain Adaptation (UDA)手法を提案する。
さらに,BFAL(Barlow Feature Alignment Loss)と呼ばれる,異なるドメインにまたがる特徴を整列させる新たな損失を導入する。
論文 参考訳(メタデータ) (2023-07-31T18:14:18Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - Towards Unified Surgical Skill Assessment [18.601526803020885]
自動手術スキル評価のための統合型マルチパスフレームワークを提案する。
手術シミュレーションのJIGSAWSデータセットと腹腔鏡下手術の新たな臨床データセットについて実験を行った。
論文 参考訳(メタデータ) (2021-06-02T09:06:43Z) - Temporal Segmentation of Surgical Sub-tasks through Deep Learning with
Multiple Data Sources [14.677001578868872]
本稿では,タスクが進行するにつれて発生する動作や事象に基づいて,統一的な手術状態推定モデルを提案する。
JHU-ISI Gesture and Skill Assessment Working Set(JIGSAWS)と,ロボット内超音波(RIOUS)画像を含むより複雑なデータセットについて検討した。
本モデルでは,89.4%まで優れたフレームワイド状態推定精度を実現し,最先端の手術状態推定モデルを改善する。
論文 参考訳(メタデータ) (2020-02-07T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。