論文の概要: End to End AI System for Surgical Gesture Sequence Recognition and Clinical Outcome Prediction
- arxiv url: http://arxiv.org/abs/2511.11899v1
- Date: Fri, 14 Nov 2025 22:02:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.378866
- Title: End to End AI System for Surgical Gesture Sequence Recognition and Clinical Outcome Prediction
- Title(参考訳): 外科用ジェスチャシーケンス認識と臨床成績予測のためのエンド・ツー・エンドAIシステム
- Authors: Xi Li, Nicholas Matsumoto, Ujjwal Pasupulety, Atharva Deo, Cherine Yang, Jay Moran, Miguel E. Hernandez, Peter Wager, Jasmine Lin, Jeanine Kim, Alvin C. Goh, Christian Wagner, Geoffrey A. Sonn, Andrew J. Hung,
- Abstract要約: 組織分離ビデオをジェスチャーシーケンスに変換するエンドツーエンドシステムであるFrame-to-Outcome (F2O)を提案する。
F2Oは、ロボットによる根治的前立腺切除術の神経分離段階において、連続した短い(2秒)ジェスチャーを確実に検出する。
- 参考スコア(独自算出の注目度): 5.409483209009106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-grained analysis of intraoperative behavior and its impact on patient outcomes remain a longstanding challenge. We present Frame-to-Outcome (F2O), an end-to-end system that translates tissue dissection videos into gesture sequences and uncovers patterns associated with postoperative outcomes. Leveraging transformer-based spatial and temporal modeling and frame-wise classification, F2O robustly detects consecutive short (~2 seconds) gestures in the nerve-sparing step of robot-assisted radical prostatectomy (AUC: 0.80 frame-level; 0.81 video-level). F2O-derived features (gesture frequency, duration, and transitions) predicted postoperative outcomes with accuracy comparable to human annotations (0.79 vs. 0.75; overlapping 95% CI). Across 25 shared features, effect size directions were concordant with small differences (~ 0.07), and strong correlation (r = 0.96, p < 1e-14). F2O also captured key patterns linked to erectile function recovery, including prolonged tissue peeling and reduced energy use. By enabling automatic interpretable assessment, F2O establishes a foundation for data-driven surgical feedback and prospective clinical decision support.
- Abstract(参考訳): 術中行動のきめ細かい分析と患者の予後への影響は、長年にわたる課題である。
組織郭清動画をジェスチャーのシーケンスに変換し,術後の経過に関連のあるパターンを明らかにするシステムであるFrame-to-Outcome (F2O) を提案する。
F2Oは、トランスフォーマーに基づく空間的・時間的モデリングとフレーム単位での分類を活用し、ロボットによる根治的前立腺切除術(AUC: 0.80 フレームレベル、0.81 ビデオレベル)の神経分離段階における連続的な短いジェスチャー(約2秒)を確実に検出する。
F2O由来の特徴(妊娠頻度、期間、移行)は、人間のアノテーションに匹敵する精度(0.79対0.75、重複95%CI)で術後成績を予測した。
25種以上で, 効果サイズ方向は小さな差(約0.07), 強い相関(r = 0.96, p < 1e-14)で一致した。
F2Oはまた、組織剥離の延長やエネルギー使用の削減など、勃起機能の回復に関連する重要なパターンも捉えた。
自動解釈可能な評価を可能にすることにより、F2Oは、データ駆動型外科的フィードバックと将来的な臨床決定支援の基礎を確立する。
関連論文リスト
- Causal Machine Learning for Surgical Interventions [3.701687265960785]
外科的意思決定は複雑で、患者の特徴、介入、結果の間の因果関係を理解する必要がある。
本研究では,ITE推定のためのマルチタスクメタ学習フレームワークであるX-MultiTaskを開発した。
X-MultiTaskは、患者固有の因果推定を提供することによって、パーソナライズされた外科的ケアを推進し、患者の成果を改善する強力なツールを提供する。
論文 参考訳(メタデータ) (2025-09-24T02:31:43Z) - Organ-Agents: Virtual Human Physiology Simulator via LLMs [66.40796430669158]
オルガン-エージェント(Organ-Agents)は、LDM駆動のエージェントを介して人間の生理学をシミュレートする多エージェントフレームワークである。
症例は7,134例,コントロール7,895例で,9系統および125変数にわたる高分解能トラジェクトリを作成した。
臓器抗原は4,509人の保留患者に対して高いシミュレーション精度を達成し, システムごとのMSE0.16とSOFA系重症度層間の堅牢性を示した。
論文 参考訳(メタデータ) (2025-08-20T01:58:45Z) - Predicting Postoperative Stroke in Elderly SICU Patients: An Interpretable Machine Learning Model Using MIMIC Data [0.0]
高齢者集中治療室(SICU)患者における術後脳卒中は重要な合併症である。
我々はMIMIC-IIIデータベースとMIMIC-IVデータベースから19,085名の高齢者SICU入院を併用したコホートを構築した。
最初の24時間集中治療室滞在からの臨床データを用いて,院内脳卒中を予測するための解釈可能な機械学習フレームワークを開発した。
論文 参考訳(メタデータ) (2025-06-02T22:53:12Z) - WMKA-Net: A Weighted Multi-Kernel Attention Network for Retinal Vessel Segmentation [0.48536814705421105]
本研究では,マルチスケール機能融合の不十分,文脈連続性の破壊,ノイズ干渉といった問題に対処する二段階解を提案する。
第1段では、階層的な適応的畳み込みを使用して、キャピラリーからメイン船へのクロススケール機能を動的にマージするマルチスケール核融合モジュール(Multi-Scale Fusion Module, RMS)を採用している。
第2段階では、軸方向の経路を通じて長距離血管の連続性をモデル化する血管指向性注意機構が導入された。
論文 参考訳(メタデータ) (2025-04-21T06:32:25Z) - Biological and Radiological Dictionary of Radiomics Features: Addressing Understandable AI Issues in Personalized Prostate Cancer; Dictionary Version PM1.0 [1.2200133485912512]
PI-RADSと関連するリスクファクターのための生物・放射線学的RFの標準化辞書を作成しました。
そして、この辞書を使って、最良の予測モデルを解釈した。
このアプローチは0.78の平均精度を達成し、単一シーケンス法を著しく上回った。
論文 参考訳(メタデータ) (2024-12-14T20:55:31Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。