論文の概要: SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning
- arxiv url: http://arxiv.org/abs/2403.06200v1
- Date: Sun, 10 Mar 2024 12:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 07:19:33.739558
- Title: SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning
- Title(参考訳): supra : 術中計画のための手術段階認識と予測
- Authors: Maxence Boels, Yang Liu, Prokar Dasgupta, Alejandro Granados,
Sebastien Ourselin
- Abstract要約: 本稿では,手術段階を同時に認識し,次の手術段階を予測する2つのアプローチを提案する。
外科的位相認識・予測法(SuPRA)は,過去と現在の情報を正確な術中位相認識に活用する。
- 参考スコア(独自算出の注目度): 46.57714869178571
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intra-operative recognition of surgical phases holds significant potential
for enhancing real-time contextual awareness in the operating room. However, we
argue that online recognition, while beneficial, primarily lends itself to
post-operative video analysis due to its limited direct impact on the actual
surgical decisions and actions during ongoing procedures. In contrast, we
contend that the prediction and anticipation of surgical phases are inherently
more valuable for intra-operative assistance, as they can meaningfully
influence a surgeon's immediate and long-term planning by providing foresight
into future steps. To address this gap, we propose a dual approach that
simultaneously recognises the current surgical phase and predicts upcoming
ones, thus offering comprehensive intra-operative assistance and guidance on
the expected remaining workflow. Our novel method, Surgical Phase Recognition
and Anticipation (SuPRA), leverages past and current information for accurate
intra-operative phase recognition while using future segments for phase
prediction. This unified approach challenges conventional frameworks that treat
these objectives separately. We have validated SuPRA on two reputed datasets,
Cholec80 and AutoLaparo21, where it demonstrated state-of-the-art performance
with recognition accuracies of 91.8% and 79.3%, respectively. Additionally, we
introduce and evaluate our model using new segment-level evaluation metrics,
namely Edit and F1 Overlap scores, for a more temporal assessment of segment
classification. In conclusion, SuPRA presents a new multi-task approach that
paves the way for improved intra-operative assistance through surgical phase
recognition and prediction of future events.
- Abstract(参考訳): 手術段階の術中認識は手術室におけるリアルタイムのコンテクスト意識を高める重要な可能性を持っている。
しかし, オンライン認識は, 有益ではあるが, 手術中の実際の手術判断や行動に直接的影響が限定されるため, 術後の映像分析に寄与すると考える。
対照的に,手術段階の予測と予測は術中支援に本質的に有益であり,今後の経過を見据え,外科医の即時・長期計画に有意義な影響を与える可能性がある。
そこで本研究では,このギャップに対処するために,現在進行中の外科手術と今後の手術の予測を同時に行う2つのアプローチを提案する。
術中位相認識・予測法 (SuPRA) は, 術中位相認識の精度向上に過去・現在情報を活用し, 将来セグメントを用いて位相予測を行う。
この統一アプローチは、これらの目的を別々に扱う従来のフレームワークに挑戦する。
我々は、cholec80とautolaparo21の2つのデータセットでsupraを検証し、それぞれ91.8%と79.3%の認識精度で最先端のパフォーマンスを示した。
さらに,セグメント分類をより時間的評価するために,新しいセグメントレベルの評価指標であるeditとf1のオーバーラップスコアを用いて,モデルを紹介し評価する。
結論としてsupraは,手術段階の認識と今後の出来事の予測を通じて術中支援を改善するための新しいマルチタスクアプローチを提案する。
関連論文リスト
- Peri-AIIMS: Perioperative Artificial Intelligence Driven Integrated Modeling of Surgeries using Anesthetic, Physical and Cognitive Statuses for Predicting Hospital Outcomes [12.493423568689801]
クロックドローイングテストで測定された術前認知状態は, 入院期間, 入院料, 術後平均痛の予測に寄与した。
機械学習モデルは、ホールドアウトテストセットで術後の結果を分類するために訓練された。
論文 参考訳(メタデータ) (2024-10-29T23:42:51Z) - Robust Surgical Phase Recognition From Annotation Efficient Supervision [1.1510009152620668]
本稿では,欠落した位相アノテーションを効果的に扱える外科的位相認識のためのロバストな手法を提案する。
ビデオあたり3つの注釈付きフレームのみを用いて,MultiBypass140データセット上で85.1%の精度を実現する。
本研究は,外科的ワークフロー認識の進歩に寄与し,より効率的かつ信頼性の高い外科的位相認識システムの実現に寄与する。
論文 参考訳(メタデータ) (2024-06-26T16:47:31Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Towards Holistic Surgical Scene Understanding [1.004785607987398]
本稿では,全身的な外科的シーン理解に向けた新しい実験枠組みを提案する。
まず、フェーズ、ステップ、インスツルメンツ、アトミックビジュアルアクション認識(PSI-AVA)データセットを紹介する。
第2に, 手術シーン理解のための強力なベースラインとして, アクション, フェーズ, インスツルメンテーション, ステップ認識(TAPIR)を提案する。
論文 参考訳(メタデータ) (2022-12-08T22:15:27Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - SUrgical PRediction GAN for Events Anticipation [38.65189355224683]
我々は,過去の腹腔鏡下ビデオフレーム上で,将来の手術段階の軌跡をサンプリングする新しいGAN製剤を用いた。
腹腔鏡下胆嚢摘出ビデオの進行を推定・予測する効果を実証した。
これらの予測軌道の可能性を評価するために外科医を調査した。
論文 参考訳(メタデータ) (2021-05-10T19:56:45Z) - TeCNO: Surgical Phase Recognition with Multi-Stage Temporal
Convolutional Networks [43.95869213955351]
外科的位相認識のための階層的予測補正を行う多段階時間畳み込みネットワーク(MS-TCN)を提案する。
本手法は腹腔鏡下胆嚢摘出術ビデオの2つのデータセットに対して,追加の外科的ツール情報を用いずに徹底的に評価した。
論文 参考訳(メタデータ) (2020-03-24T10:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。