論文の概要: PitRSDNet: Predicting Intra-operative Remaining Surgery Duration in Endoscopic Pituitary Surgery
- arxiv url: http://arxiv.org/abs/2409.16998v2
- Date: Mon, 4 Nov 2024 11:44:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 17:10:14.590873
- Title: PitRSDNet: Predicting Intra-operative Remaining Surgery Duration in Endoscopic Pituitary Surgery
- Title(参考訳): PitRSDNet : 内視鏡下下垂体手術における術後残存期間予測
- Authors: Anjana Wijekoon, Adrito Das, Roxana R. Herrera, Danyal Z. Khan, John Hanrahan, Eleanor Carter, Valpuri Luoma, Danail Stoyanov, Hani J. Marcus, Sophia Bano,
- Abstract要約: 本稿では,下垂体手術中の残存手術期間(RSD)を予測するためのPitRSDNetを提案する。
PitRSDNet はワークフロー知識を RSD 予測に統合する。1) ステップと RSD を同時に予測するためのマルチタスク学習,2) 時間的学習と推論におけるコンテキストとしての事前ステップ。
PitRSDNetは、88のビデオを備えた新しい内視鏡下垂体手術データセットでトレーニングされ、従来の統計的および機械学習手法よりも競争力のあるパフォーマンス向上を示す。
- 参考スコア(独自算出の注目度): 7.291847156946912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate intra-operative Remaining Surgery Duration (RSD) predictions allow for anaesthetists to more accurately decide when to administer anaesthetic agents and drugs, as well as to notify hospital staff to send in the next patient. Therefore RSD plays an important role in improving patient care and minimising surgical theatre costs via efficient scheduling. In endoscopic pituitary surgery, it is uniquely challenging due to variable workflow sequences with a selection of optional steps contributing to high variability in surgery duration. This paper presents PitRSDNet for predicting RSD during pituitary surgery, a spatio-temporal neural network model that learns from historical data focusing on workflow sequences. PitRSDNet integrates workflow knowledge into RSD prediction in two forms: 1) multi-task learning for concurrently predicting step and RSD; and 2) incorporating prior steps as context in temporal learning and inference. PitRSDNet is trained and evaluated on a new endoscopic pituitary surgery dataset with 88 videos to show competitive performance improvements over previous statistical and machine learning methods. The findings also highlight how PitRSDNet improve RSD precision on outlier cases utilising the knowledge of prior steps.
- Abstract(参考訳): 正確な手術中の手術継続期間(RSD)予測は、麻酔薬や薬物の投与時期をより正確に決定し、病院職員に次の患者を送付するよう通知することを可能にする。
したがって,RSDは患者ケアの改善と,効率的なスケジューリングによる手術手術費の最小化に重要な役割を担っている。
内視鏡下垂体手術では,手術期間の変動に寄与する任意のステップを選択することで,ワークフローの変動が一意的に困難である。
本稿では、ワークフローシーケンスに着目した履歴データから学習した時空間ニューラルネットワークモデルである下垂体手術時のRSD予測のためのPitRSDNetを提案する。
PitRSDNetはワークフロー知識を2つの形式でRSD予測に統合する。
1)ステップとRSDの同時予測のためのマルチタスク学習
2)時間的学習と推論の文脈として事前ステップを取り入れた。
PitRSDNetは、88のビデオを備えた新しい内視鏡下垂体手術データセットでトレーニングされ、従来の統計的および機械学習手法よりも競争力のあるパフォーマンス向上を示す。
また,PitRSDNetは,先行ステップの知識を活用して,不整形症例のRSD精度を向上する。
関連論文リスト
- Peri-AIIMS: Perioperative Artificial Intelligence Driven Integrated Modeling of Surgeries using Anesthetic, Physical and Cognitive Statuses for Predicting Hospital Outcomes [12.493423568689801]
クロックドローイングテストで測定された術前認知状態は, 入院期間, 入院料, 術後平均痛の予測に寄与した。
機械学習モデルは、ホールドアウトテストセットで術後の結果を分類するために訓練された。
論文 参考訳(メタデータ) (2024-10-29T23:42:51Z) - Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - Fusion of Diffusion Weighted MRI and Clinical Data for Predicting
Functional Outcome after Acute Ischemic Stroke with Deep Contrastive Learning [1.4149937986822438]
ストロークは、25歳以上の成人の約4分の1に影響する一般的な神経疾患である。
AUCでは0.87,0.80,80.45%,F1スコアでは80.45%,精度では0。
論文 参考訳(メタデータ) (2024-02-16T18:51:42Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Automatic registration with continuous pose updates for marker-less
surgical navigation in spine surgery [52.63271687382495]
本研究では, 腰部脊柱管固定術の登録問題を, 無放射線で自動的に解決するアプローチを提案する。
深部神経ネットワークは、腰椎を分割し、その方向を同時に予測するように訓練され、前手術モデルに対する最初のポーズが得られた。
拡張現実ベースのナビゲーションシステムとの統合により、直感的な外科的ガイダンスが提供される。
論文 参考訳(メタデータ) (2023-08-05T16:26:41Z) - Prediction of Post-Operative Renal and Pulmonary Complications Using
Transformers [69.81176740997175]
術後急性腎不全,肺合併症,院内死亡の予測におけるトランスフォーマーモデルの有用性について検討した。
以上の結果から,トランスフォーマーモデルにより術後合併症の予測や従来の機械学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-06-01T14:08:05Z) - Safe Deep RL for Intraoperative Planning of Pedicle Screw Placement [61.28459114068828]
安全な深部強化学習(DRL)に基づく訓練経路計画にリアルタイムな観察を活用するロボット脊椎手術の術中計画手法を提案する。
本手法は,ゴールドスタンダード (GS) 掘削計画に関して,90%の骨貫通を達成できた。
論文 参考訳(メタデータ) (2023-05-09T11:42:53Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z) - TeCNO: Surgical Phase Recognition with Multi-Stage Temporal
Convolutional Networks [43.95869213955351]
外科的位相認識のための階層的予測補正を行う多段階時間畳み込みネットワーク(MS-TCN)を提案する。
本手法は腹腔鏡下胆嚢摘出術ビデオの2つのデータセットに対して,追加の外科的ツール情報を用いずに徹底的に評価した。
論文 参考訳(メタデータ) (2020-03-24T10:12:30Z) - Unsupervised Temporal Video Segmentation as an Auxiliary Task for
Predicting the Remaining Surgery Duration [0.03131740922192113]
外科手術中の残存手術期間(RSD)を推定することは、OR計画および麻酔線量推定に有用である。
本研究では,教師なしの時間的ビデオセグメンテーションを補助学習タスクとして利用することにより,RTD予測を改善することができるかどうかを検討する。
論文 参考訳(メタデータ) (2020-02-26T09:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。