論文の概要: SurgBox: Agent-Driven Operating Room Sandbox with Surgery Copilot
- arxiv url: http://arxiv.org/abs/2412.05187v1
- Date: Fri, 06 Dec 2024 17:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:00.502242
- Title: SurgBox: Agent-Driven Operating Room Sandbox with Surgery Copilot
- Title(参考訳): SurgBox:手術コパイロット付きエージェント駆動オペレーティングルームサンドボックス
- Authors: Jinlin Wu, Xusheng Liang, Xuexue Bai, Zhen Chen,
- Abstract要約: SurgBoxはエージェント駆動のサンドボックスフレームワークで、没入型手術シミュレーションにおける外科医の認知能力を高める。
特に,外科情報の流れを積極的に調整し,臨床的意思決定を支援するAI駆動型アシスタントであるオペリアルコパイロットを考案した。
- 参考スコア(独自算出の注目度): 3.487327636814225
- License:
- Abstract: Surgical interventions, particularly in neurology, represent complex and high-stakes scenarios that impose substantial cognitive burdens on surgical teams. Although deliberate education and practice can enhance cognitive capabilities, surgical training opportunities remain limited due to patient safety concerns. To address these cognitive challenges in surgical training and operation, we propose SurgBox, an agent-driven sandbox framework to systematically enhance the cognitive capabilities of surgeons in immersive surgical simulations. Specifically, our SurgBox leverages large language models (LLMs) with tailored Retrieval-Augmented Generation (RAG) to authentically replicate various surgical roles, enabling realistic training environments for deliberate practice. In particular, we devise Surgery Copilot, an AI-driven assistant to actively coordinate the surgical information stream and support clinical decision-making, thereby diminishing the cognitive workload of surgical teams during surgery. By incorporating a novel Long-Short Memory mechanism, our Surgery Copilot can effectively balance immediate procedural assistance with comprehensive surgical knowledge. Extensive experiments using real neurosurgical procedure records validate our SurgBox framework in both enhancing surgical cognitive capabilities and supporting clinical decision-making. By providing an integrated solution for training and operational support to address cognitive challenges, our SurgBox framework advances surgical education and practice, potentially transforming surgical outcomes and healthcare quality. The code is available at https://github.com/franciszchen/SurgBox.
- Abstract(参考訳): 外科的介入は、特に神経学において、外科チームに対して相当な認知的負担を課す複雑で高度なシナリオを表す。
意識的な教育や実践は認知能力を高めることができるが、患者の安全上の懸念から手術訓練の機会は限られている。
外科的訓練と手術における認知的課題に対処するために, エージェント駆動型サンドボックスフレームワークであるSurgBoxを提案する。
SurgBoxは大規模言語モデル(LLMs)とRAG(Retrieval-Augmented Generation)を利用して、さまざまな外科的役割を忠実に再現し、故意に実践するための現実的なトレーニング環境を実現する。
特に、外科情報の流れを積極的に調整し、臨床的意思決定を支援するAI駆動アシスタントであるオペレーショナルコパイロットを考案し、手術中の手術チームの認知負荷を低減させる。
新たな長短記憶機構を取り入れることで,術中コパイロットは早期の手続き支援と包括的外科的知識のバランスをとることができる。
外科的認知能力の向上と臨床的意思決定支援の両面でSurgBoxフレームワークが有効であることを示す。
認知的課題に対処するためのトレーニングと運用支援の統合ソリューションを提供することで、SurgBoxフレームワークは、外科的教育と実践を進歩させ、外科的成果と医療的品質を変革する可能性がある。
コードはhttps://github.com/franciszchen/SurgBox.comで入手できる。
関連論文リスト
- SurgIRL: Towards Life-Long Learning for Surgical Automation by Incremental Reinforcement Learning [21.35087120482373]
我々は外科的強化学習(SurgIRL)を通して外科的自動化政策を訓練する
SurgIRLは,(1)外部方針(知識)を参照して新たなスキルを獲得し,(2)これらのスキルを蓄積・再利用して,複数の未確認課題を段階的に解決すること(インクリメンタルラーニング)を目的としている。
論文 参考訳(メタデータ) (2024-09-24T01:27:46Z) - VS-Assistant: Versatile Surgery Assistant on the Demand of Surgeons [29.783300422432763]
外科医の意図を正確に理解できるVersatile Surgery Assistant (VS-Assistant)を提案する。
我々は,VS-Assistantが外科的意図を理解できるように,外科的ケア・チューニング戦略を考案した。
論文 参考訳(メタデータ) (2024-05-14T02:05:36Z) - LLM-Assisted Multi-Teacher Continual Learning for Visual Question Answering in Robotic Surgery [57.358568111574314]
患者のデータのプライバシは、モデル更新時に古いデータの可用性を制限することが多い。
CL研究は外科領域で2つの重要な問題を見落としていた。
本稿では,多モーダル大規模言語モデル (LLM) と適応重み付け手法を用いて,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-02-26T15:35:24Z) - OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery [13.843251369739908]
本稿では,OSSAR(Open-Set Surgery Activity Recognition)フレームワークについて紹介する。
提案手法は超球面逆点戦略を利用して特徴空間における未知クラスと未知クラスとの区別を強化する。
我々の主張をサポートするために、公開JIGSAWSデータセットを利用したオープンセットの外科的活動ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-02-10T16:23:12Z) - Deep Multimodal Fusion for Surgical Feedback Classification [70.53297887843802]
外科的フィードバックの5カテゴリー分類を臨床的に検証した。
次に,テキスト,音声,ビデオモダリティの入力から,これらの5つのカテゴリの外科的フィードバックを分類するために,多ラベル機械学習モデルを開発した。
我々の研究の最終的な目標は、リアルタイムな文脈的外科的フィードバックのアノテーションを大規模に自動化することである。
論文 参考訳(メタデータ) (2023-12-06T01:59:47Z) - Toward a Surgeon-in-the-Loop Ophthalmic Robotic Apprentice using Reinforcement and Imitation Learning [18.72371138886818]
眼内白内障手術における外科医中心の自律エージェントに対する画像誘導アプローチを提案する。
外科医の行動と嗜好をトレーニングプロセスに統合することにより、ロボットは個々の外科医のユニークなテクニックを暗黙的に学習し、適応することができる。
論文 参考訳(メタデータ) (2023-11-29T15:00:06Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。