論文の概要: Multi-Task Temporal Convolutional Networks for Joint Recognition of
Surgical Phases and Steps in Gastric Bypass Procedures
- arxiv url: http://arxiv.org/abs/2102.12218v1
- Date: Wed, 24 Feb 2021 11:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 16:43:35.089979
- Title: Multi-Task Temporal Convolutional Networks for Joint Recognition of
Surgical Phases and Steps in Gastric Bypass Procedures
- Title(参考訳): 胃バイパス術における手術相とステップの同時認識のためのマルチタスク時間畳み込みネットワーク
- Authors: Sanat Ramesh, Diego Dall'Alba, Cristians Gonzalez, Tong Yu, Pietro
Mascagni, Didier Mutter, Jacques Marescaux, Paolo Fiorini, Nicolas Padoy
- Abstract要約: 腹腔鏡下胃バイパス術における2つの関連外科的活動,フェーズとステップを紹介した。
MTMS-TCN(Multi-task Multi-Stage Temporal Convolutional Network)とCNN(Multi-task Convolutional Neural Network)トレーニングのセットアップを提案する。
手術手順40の大規模ビデオデータセット(Bypass40)について,提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 13.338427746090796
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Purpose: Automatic segmentation and classification of surgical activity is
crucial for providing advanced support in computer-assisted interventions and
autonomous functionalities in robot-assisted surgeries. Prior works have
focused on recognizing either coarse activities, such as phases, or
fine-grained activities, such as gestures. This work aims at jointly
recognizing two complementary levels of granularity directly from videos,
namely phases and steps. Method: We introduce two correlated surgical
activities, phases and steps, for the laparoscopic gastric bypass procedure. We
propose a Multi-task Multi-Stage Temporal Convolutional Network (MTMS-TCN)
along with a multi-task Convolutional Neural Network (CNN) training setup to
jointly predict the phases and steps and benefit from their complementarity to
better evaluate the execution of the procedure. We evaluate the proposed method
on a large video dataset consisting of 40 surgical procedures (Bypass40).
Results: We present experimental results from several baseline models for both
phase and step recognition on the Bypass40 dataset. The proposed MTMS-TCN
method outperforms in both phase and step recognition by 1-2% in accuracy,
precision and recall, compared to single-task methods. Furthermore, for step
recognition, MTMS-TCN achieves a superior performance of 3-6% compared to LSTM
based models in accuracy, precision, and recall. Conclusion: In this work, we
present a multi-task multi-stage temporal convolutional network for surgical
activity recognition, which shows improved results compared to single-task
models on the Bypass40 gastric bypass dataset with multi-level annotations. The
proposed method shows that the joint modeling of phases and steps is beneficial
to improve the overall recognition of each type of activity.
- Abstract(参考訳): 目的: ロボット支援手術におけるコンピュータ支援介入と自律機能支援の高度化には,手術活動の自動分割と分類が不可欠である。
以前の作品では、フェーズのような粗い活動やジェスチャーのようなきめ細かい活動の認識に焦点が当てられていた。
この研究は、ビデオから2つの相補的な粒度(フェーズとステップ)を直接認識することを目的とする。
方法:腹腔鏡下胃バイパス術の2つの関連外科的活動、段階およびステップを紹介します。
本稿では,マルチタスク畳み込みニューラルネットワーク (mtms-tcn) とマルチタスク畳み込みニューラルネットワーク (cnn) を併用し, 相とステップを共同で予測し, それらの相補性を生かして, 手順の実行を評価する。
提案手法を40の手術手順(Bypass40)からなる大規模ビデオデータセット上で評価する。
結果:Bypass40データセット上での位相およびステップ認識のためのいくつかのベースラインモデルによる実験結果を示す。
MTMS-TCN法は, 単一タスク法と比較して, 精度, 精度, 再現率ともに1-2%向上した。
さらに,ステップ認識において,MTMS-TCNはLSTMモデルに比べて精度,精度,リコールにおいて3~6%の優れた性能を達成している。
結論:本研究では,多レベルアノテーションを用いたバイパス40胃バイパスデータセットの単タスクモデルと比較し,手術活動認識のためのマルチタスクマルチステージ時間畳み込みネットワークを提案する。
提案手法は,各活動の総合的認識を改善する上で,位相とステップの協調モデリングが有効であることを示す。
関連論文リスト
- ICH-SCNet: Intracerebral Hemorrhage Segmentation and Prognosis Classification Network Using CLIP-guided SAM mechanism [12.469269425813607]
脳内出血 (ICH) は脳卒中で最も致命的なサブタイプであり, 障害の発生頻度が高いことが特徴である。
既存のアプローチでは、これらの2つのタスクを独立して処理し、主にデータのみにフォーカスする。
本稿では,ICHセグメンテーションと予後分類の両方のために設計されたマルチタスクネットワークICH-SCNetを提案する。
論文 参考訳(メタデータ) (2024-11-07T12:34:25Z) - Friends Across Time: Multi-Scale Action Segmentation Transformer for
Surgical Phase Recognition [2.10407185597278]
オフライン手術相認識のためのMS-AST(Multi-Scale Action Causal Transformer)とオンライン手術相認識のためのMS-ASCT(Multi-Scale Action Causal Transformer)を提案する。
オンラインおよびオフラインの外科的位相認識のためのColec80データセットでは,95.26%,96.15%の精度が得られる。
論文 参考訳(メタデータ) (2024-01-22T01:34:03Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Identification of Cognitive Workload during Surgical Tasks with
Multimodal Deep Learning [20.706268332427157]
関連する認知ワークロード(CWL)の増加は、予期せぬ、反復的なタスクへの対処から生じる。
本稿では,CWLのマルチモーダル認識のための2つの機械学習手法のカスケードを提案する。
畳み込みニューラルネットワーク(CNN)は、この情報を用いて、各手術タスクに関連するさまざまなタイプのCWLを識別する。
論文 参考訳(メタデータ) (2022-09-12T18:29:34Z) - Surgical Phase Recognition in Laparoscopic Cholecystectomy [57.929132269036245]
本稿では,2段階推論パイプラインのキャリブレーションされた信頼度スコアを利用するTransformerに基づく手法を提案する。
提案手法はColec80データセットのベースラインモデルよりも優れており,様々なアクションセグメンテーション手法に適用できる。
論文 参考訳(メタデータ) (2022-06-14T22:55:31Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - "Train one, Classify one, Teach one" -- Cross-surgery transfer learning
for surgical step recognition [14.635480748841317]
私たちは、4つの異なる腹腔鏡手術における外科的ステップ認識を初めて分析します。
外科的ステップ認識の転送学習に最適化された新しいアーキテクチャであるTime-Series Adaptation Network(TSAN)を紹介します。
腹腔鏡下胆嚢摘出術を他の3種類の術式に移行した場合に90%以上の精度が得られた。
論文 参考訳(メタデータ) (2021-02-24T14:36:18Z) - HF-UNet: Learning Hierarchically Inter-Task Relevance in Multi-Task
U-Net for Accurate Prostate Segmentation [56.86396352441269]
我々は,CT画像における前立腺区分けの課題に取り組み,1)高速な局所化のための第1段階,2)正確に前立腺区分けを行う第2段階の2段階の2段階からなる2段階のネットワークを用いた。
前立腺のセグメンテーションを第2段階に正確に分割するために、前立腺のセグメンテーションを多タスク学習フレームワークに定式化し、前立腺のセグメンテーションをセグメンテーションするメインタスクと、前立腺の境界を規定する補助タスクを含む。
対照的に、従来のマルチタスクディープネットワークは、通常、すべてのタスクのパラメータ(つまり特徴表現)の大部分を共有しており、異なるタスクの特異性としてデータ適合性を制限している可能性がある。
論文 参考訳(メタデータ) (2020-05-21T02:53:52Z) - TeCNO: Surgical Phase Recognition with Multi-Stage Temporal
Convolutional Networks [43.95869213955351]
外科的位相認識のための階層的予測補正を行う多段階時間畳み込みネットワーク(MS-TCN)を提案する。
本手法は腹腔鏡下胆嚢摘出術ビデオの2つのデータセットに対して,追加の外科的ツール情報を用いずに徹底的に評価した。
論文 参考訳(メタデータ) (2020-03-24T10:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。