論文の概要: Adaptation of Surgical Activity Recognition Models Across Operating
Rooms
- arxiv url: http://arxiv.org/abs/2207.03083v1
- Date: Thu, 7 Jul 2022 04:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-09 02:54:58.788830
- Title: Adaptation of Surgical Activity Recognition Models Across Operating
Rooms
- Title(参考訳): 手術室における手術活動認識モデルの適応
- Authors: Ali Mottaghi, Aidean Sharghi, Serena Yeung, Omid Mohareri
- Abstract要約: 手術室における手術活動認識モデルの一般化可能性について検討した。
外科的活動認識モデルの性能を向上させるための新しい領域適応法を提案する。
- 参考スコア(独自算出の注目度): 10.625208343893911
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic surgical activity recognition enables more intelligent surgical
devices and a more efficient workflow. Integration of such technology in new
operating rooms has the potential to improve care delivery to patients and
decrease costs. Recent works have achieved a promising performance on surgical
activity recognition; however, the lack of generalizability of these models is
one of the critical barriers to the wide-scale adoption of this technology. In
this work, we study the generalizability of surgical activity recognition
models across operating rooms. We propose a new domain adaptation method to
improve the performance of the surgical activity recognition model in a new
operating room for which we only have unlabeled videos. Our approach generates
pseudo labels for unlabeled video clips that it is confident about and trains
the model on the augmented version of the clips. We extend our method to a
semi-supervised domain adaptation setting where a small portion of the target
domain is also labeled. In our experiments, our proposed method consistently
outperforms the baselines on a dataset of more than 480 long surgical videos
collected from two operating rooms.
- Abstract(参考訳): 自動手術活動認識は、よりインテリジェントな手術装置とより効率的なワークフローを可能にする。
新しい手術室におけるこのような技術の統合は、患者へのケア提供を改善し、コストを削減できる可能性がある。
最近の研究は, 外科的活動認識において有望な成果を上げているが, これらのモデルの一般化性の欠如は, この技術の大規模導入における重要な障壁の1つである。
本研究では手術室における手術活動認識モデルの一般化可能性について検討する。
そこで本稿では,未収録ビデオのみを有する手術室における手術活動認識モデルの性能向上のための新しい領域適応手法を提案する。
提案手法は,ビデオクリップをラベル付けしていない場合の擬似ラベルを生成し,ビデオクリップの強化版上でモデルを訓練する。
提案手法を半教師付き領域適応設定に拡張し,対象領域のごく一部をラベル付けする。
実験では,2つの手術室から収集した480本以上の手術映像のデータセットにおいて,提案手法は一貫してベースラインを上回っている。
関連論文リスト
- ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Surgical Phase Recognition in Laparoscopic Cholecystectomy [57.929132269036245]
本稿では,2段階推論パイプラインのキャリブレーションされた信頼度スコアを利用するTransformerに基づく手法を提案する。
提案手法はColec80データセットのベースラインモデルよりも優れており,様々なアクションセグメンテーション手法に適用できる。
論文 参考訳(メタデータ) (2022-06-14T22:55:31Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Know your sensORs $\unicode{x2013}$ A Modality Study For Surgical Action
Classification [39.546197658791]
医療コミュニティは、この豊富なデータを活用して、介入ケアを推進し、コストを下げ、患者の成果を改善する自動化手法を開発しようとしている。
既存のORルームカメラのデータセットは、これまではサイズやモダリティが限られていたため、ビデオから外科的アクションを認識するなどのタスクに、どのセンサーのモダリティが最適かは明らかになっていない。
本研究は, 画像のモダリティによって, 手術時の動作認識性能が変化することを示す。
論文 参考訳(メタデータ) (2022-03-16T15:01:17Z) - A real-time spatiotemporal AI model analyzes skill in open surgical
videos [2.4907439112059278]
これまでで最大のオープンな手術用ビデオデータセットであるYouTubeから、50か国からアップロードされた23の手術用プロシージャから1997年の動画を収集することで、AIモデルをトレーニングするための既存のデータ制限を克服しました。
我々は,手術行動,手,道具のリアルタイム理解が可能なマルチタスクAIモデルを開発した。
論文 参考訳(メタデータ) (2021-12-14T08:11:02Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Using Computer Vision to Automate Hand Detection and Tracking of Surgeon
Movements in Videos of Open Surgery [8.095095522269352]
コンピュータビジョンの進歩を活かし,外科手術の映像解析に自動的アプローチを導入する。
オブジェクト検出のための最先端の畳み込みニューラルネットワークアーキテクチャを使用して、開手術ビデオの操作手を検出する。
本モデルの操作手の空間的検出は、既存の手検出データセットを用いて達成した検出を大幅に上回る。
論文 参考訳(メタデータ) (2020-12-13T03:10:09Z) - Automatic Operating Room Surgical Activity Recognition for
Robot-Assisted Surgery [1.1033115844630357]
ロボット支援手術における自動手術活動認識について検討した。
400本のフル長マルチパースペクティブビデオを含む,最初の大規模データセットを収集する。
ビデオに最も認識され,臨床的に関係のある10のクラスで注釈を付ける。
論文 参考訳(メタデータ) (2020-06-29T16:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。