論文の概要: When do they StOP?: A First Step Towards Automatically Identifying Team Communication in the Operating Room
- arxiv url: http://arxiv.org/abs/2502.08299v2
- Date: Thu, 13 Feb 2025 09:28:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:35.375249
- Title: When do they StOP?: A First Step Towards Automatically Identifying Team Communication in the Operating Room
- Title(参考訳): 運用環境におけるチームコミュニケーションの自動識別に向けた第一歩
- Authors: Keqi Chen, Lilien Schewski, Vinkle Srivastav, Joël Lavanchy, Didier Mutter, Guido Beldi, Sandra Keller, Nicolas Padoy,
- Abstract要約: ORのマルチビューカメラシステムによって捉えられた100時間以上の手術ビデオを,Team-ORと呼ばれる実際の外科手術のデータセットを生成する。
このデータセットには、33のタイムアウトと22のStOP?-protocolアクティビティの時間アノテーションが含まれている。
次に、シーンコンテキストとアクション特徴の両方を符号化し、効率的なニューラルネットワークモデルを用いて結果を出力するグループアクティビティ検出手法を提案する。
- 参考スコア(独自算出の注目度): 2.508931612863749
- License:
- Abstract: Purpose: Surgical performance depends not only on surgeons' technical skills but also on team communication within and across the different professional groups present during the operation. Therefore, automatically identifying team communication in the OR is crucial for patient safety and advances in the development of computer-assisted surgical workflow analysis and intra-operative support systems. To take the first step, we propose a new task of detecting communication briefings involving all OR team members, i.e. the team Time-out and the StOP?-protocol, by localizing their start and end times in video recordings of surgical operations. Methods: We generate an OR dataset of real surgeries, called Team-OR, with more than one hundred hours of surgical videos captured by the multi-view camera system in the OR. The dataset contains temporal annotations of 33 Time-out and 22 StOP?-protocol activities in total. We then propose a novel group activity detection approach, where we encode both scene context and action features, and use an efficient neural network model to output the results. Results: The experimental results on the Team-OR dataset show that our approach outperforms existing state-of-the-art temporal action detection approaches. It also demonstrates the lack of research on group activities in the OR, proving the significance of our dataset. Conclusion: We investigate the Team Time-Out and the StOP?-protocol in the OR, by presenting the first OR dataset with temporal annotations of group activities protocols, and introducing a novel group activity detection approach that outperforms existing approaches. Code is available at https://github.com/CAMMA-public/Team-OR.
- Abstract(参考訳): 目的: 手術の成績は, 外科医の技術スキルだけでなく, 手術中に存在する異なる専門家グループ内およびチーム間のコミュニケーションにも依存する。
したがって,ORにおけるチームコミュニケーションの自動識別は,患者の安全と,コンピュータによる外科的ワークフロー分析や術中支援システムの開発に不可欠である。
最初のステップとして、すべてのORチームメンバー、すなわちチームタイムアウトとStOPを含むコミュニケーションブリーフィングを検知する新しいタスクを提案する。
プロトコール : 外科手術の映像記録において開始時刻と終了時刻をローカライズすること。
方法:我々は,OR内の多視点カメラシステムによって捉えられた100時間以上の手術ビデオを用いて,Team-ORと呼ばれる実際の手術のデータセットを生成する。
データセットには、33のTime-outと22のStOPの時間アノテーションが含まれているか?
-総じてプロトコール活動。
次に、シーンコンテキストとアクション特徴の両方を符号化し、効率的なニューラルネットワークモデルを用いて結果を出力するグループアクティビティ検出手法を提案する。
結果: Team-ORデータセットの実験結果は,我々のアプローチが既存の最先端の時間的行動検出アプローチより優れていることを示している。
また、ORにおけるグループ活動の研究が欠如していることを示し、データセットの重要性を証明している。
結論: チームのタイムアウトとStOPを調査しますか?
ORにおける-protocolは、グループアクティビティプロトコルの時間アノテーションを備えた最初のORデータセットを提示し、既存のアプローチよりも優れた新しいグループアクティビティ検出アプローチを導入することで実現されている。
コードはhttps://github.com/CAMMA-public/Team-OR.comで入手できる。
関連論文リスト
- OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery [13.843251369739908]
本稿では,OSSAR(Open-Set Surgery Activity Recognition)フレームワークについて紹介する。
提案手法は超球面逆点戦略を利用して特徴空間における未知クラスと未知クラスとの区別を強化する。
我々の主張をサポートするために、公開JIGSAWSデータセットを利用したオープンセットの外科的活動ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-02-10T16:23:12Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - Detecting and Optimising Team Interactions in Software Development [58.720142291102135]
本稿では,ソフトウェア開発チームの機能的相互作用構造を検出するためのデータ駆動型手法を提案する。
このアプローチでは、チームメンバのアクティビティレベルの違いを考慮し、ブロック制約設定モデルを使用します。
我々のアプローチは、チームが合成されたベンチマークシナリオと機能的な相互作用構造を比較するのにどのように役立つかを示します。
論文 参考訳(メタデータ) (2023-02-28T14:53:29Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - TraSeTR: Track-to-Segment Transformer with Contrastive Query for
Instance-level Instrument Segmentation in Robotic Surgery [60.439434751619736]
そこで我々は,TraSeTRを提案する。TraSeTR,TraSeTR,Trace-to-Segment Transformerは,手術器具のセグメンテーションを支援する。
TraSeTRは、機器の種類、位置、アイデンティティとインスタンスレベルの予測を共同で理由付けている。
提案手法の有効性を,3つの公開データセットに対して,最先端の計器型セグメンテーション結果を用いて実証した。
論文 参考訳(メタデータ) (2022-02-17T05:52:18Z) - Gesture Recognition in Robotic Surgery: a Review [16.322875532481326]
本稿では,ロボット手術におけるきめ細かいジェスチャーの自動認識技術について概説する。
研究分野は急速に拡大しており、記事の大半は過去4年間に掲載されている。
論文 参考訳(メタデータ) (2021-01-29T19:13:13Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Aggregating Long-Term Context for Learning Laparoscopic and
Robot-Assisted Surgical Workflows [40.48632897750319]
本稿では,タスク固有のネットワーク表現を利用した時間的ネットワーク構造を提案する。
腹腔鏡下胆嚢摘出術を施行した。
論文 参考訳(メタデータ) (2020-09-01T20:29:14Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。