論文の概要: Hypergraph-Transformer (HGT) for Interactive Event Prediction in Laparoscopic and Robotic Surgery
- arxiv url: http://arxiv.org/abs/2402.01974v2
- Date: Mon, 10 Mar 2025 21:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 19:17:02.277668
- Title: Hypergraph-Transformer (HGT) for Interactive Event Prediction in Laparoscopic and Robotic Surgery
- Title(参考訳): 腹腔鏡・ロボット手術における対話的事象予測のためのハイパーグラフ変換器(HGT)
- Authors: Lianhao Yin, Yutong Ban, Jennifer Eckhoff, Ozanan Meireles, Daniela Rus, Guy Rosman,
- Abstract要約: 腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
- 参考スコア(独自算出の注目度): 47.47211257890948
- License:
- Abstract: Understanding and anticipating intraoperative events and actions is critical for intraoperative assistance and decision-making during minimally invasive surgery. Automated prediction of events, actions, and the following consequences is addressed through various computational approaches with the objective of augmenting surgeons' perception and decision-making capabilities. We propose a predictive neural network that is capable of understanding and predicting critical interactive aspects of surgical workflow from intra-abdominal video, while flexibly leveraging surgical knowledge graphs. The approach incorporates a hypergraph-transformer (HGT) structure that encodes expert knowledge into the network design and predicts the hidden embedding of the graph. We verify our approach on established surgical datasets and applications, including the detection and prediction of action triplets, and the achievement of the Critical View of Safety (CVS). Moreover, we address specific, safety-related tasks, such as predicting the clipping of cystic duct or artery without prior achievement of the CVS. Our results demonstrate the superiority of our approach compared to unstructured alternatives.
- Abstract(参考訳): 術中イベントと行動の理解と予測は,低侵襲手術における術中援助と意思決定に重要である。
外科医の知覚と意思決定能力を高めることを目的として, 様々な計算手法を用いて, 事象, 行動, および次の結果の自動予測を行う。
本稿では,外科的知識グラフを柔軟に活用しながら,腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測ニューラルネットワークを提案する。
このアプローチには、専門家の知識をネットワーク設計にエンコードし、グラフの隠れ埋め込みを予測するハイパーグラフ変換器(HGT)構造が組み込まれている。
本研究のアプローチは,三重項の検出と予測,安全クリティカルビュー(CVS)の達成など,確立された外科的データセットと応用に対する検証である。
また,嚢胞性ダクトや動脈のクリッピングをCVSの既往の達成なしに予測するなど,特定の安全関連課題に対処する。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
関連論文リスト
- Adaptive Graph Learning from Spatial Information for Surgical Workflow Anticipation [9.329654505950199]
本稿では,新しい空間表現に基づく外科的ワークフロー予測のための適応型グラフ学習フレームワークを提案する。
我々は、異なる時間軸の学習目標のバランスを保ち、制約のない予測を可能にするマルチ水平目標を開発する。
論文 参考訳(メタデータ) (2024-12-09T12:53:08Z) - Procedure-Aware Surgical Video-language Pretraining with Hierarchical Knowledge Augmentation [51.222684687924215]
手術用ビデオ言語事前学習は、知識領域のギャップとマルチモーダルデータの不足により、独特な課題に直面している。
本稿では,これらの課題に対処するために,階層的知識向上手法と新しい手術的知識向上型ビデオランゲージ事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-30T22:21:05Z) - Event Recognition in Laparoscopic Gynecology Videos with Hybrid
Transformers [4.371909393924804]
腹腔鏡下ビデオにおいて,関連するイベント認識に適したデータセットを提案する。
本データセットは,術中大きな課題と術後合併症に関連する重要な事象に対するアノテーションを含む。
腹腔鏡下手術ビデオにおける4つの特定の事象を認識するために,ハイブリッドトランスフォーマーアーキテクチャと,カスタマイズしたトレーニング推論フレームワークを併用して評価を行った。
論文 参考訳(メタデータ) (2023-12-01T13:57:29Z) - SurGNN: Explainable visual scene understanding and assessment of
surgical skill using graph neural networks [19.57785997767885]
本稿では,グラフニューラルネットワーク(GNN)を用いて視覚的シーン理解と手術的スキルアセスメントを高める方法について検討する。
GNNは解釈可能な結果を提供し、予測されたスキルメトリクスに寄与する特定のアクション、楽器、または解剖学的構造を明らかにする。
論文 参考訳(メタデータ) (2023-08-24T20:32:57Z) - Prediction of Post-Operative Renal and Pulmonary Complications Using
Transformers [69.81176740997175]
術後急性腎不全,肺合併症,院内死亡の予測におけるトランスフォーマーモデルの有用性について検討した。
以上の結果から,トランスフォーマーモデルにより術後合併症の予測や従来の機械学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-06-01T14:08:05Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - SUrgical PRediction GAN for Events Anticipation [38.65189355224683]
我々は,過去の腹腔鏡下ビデオフレーム上で,将来の手術段階の軌跡をサンプリングする新しいGAN製剤を用いた。
腹腔鏡下胆嚢摘出ビデオの進行を推定・予測する効果を実証した。
これらの予測軌道の可能性を評価するために外科医を調査した。
論文 参考訳(メタデータ) (2021-05-10T19:56:45Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - TeCNO: Surgical Phase Recognition with Multi-Stage Temporal
Convolutional Networks [43.95869213955351]
外科的位相認識のための階層的予測補正を行う多段階時間畳み込みネットワーク(MS-TCN)を提案する。
本手法は腹腔鏡下胆嚢摘出術ビデオの2つのデータセットに対して,追加の外科的ツール情報を用いずに徹底的に評価した。
論文 参考訳(メタデータ) (2020-03-24T10:12:30Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。