論文の概要: Integrating Artificial Intelligence and Augmented Reality in Robotic
Surgery: An Initial dVRK Study Using a Surgical Education Scenario
- arxiv url: http://arxiv.org/abs/2201.00383v1
- Date: Sun, 2 Jan 2022 17:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 15:26:24.016553
- Title: Integrating Artificial Intelligence and Augmented Reality in Robotic
Surgery: An Initial dVRK Study Using a Surgical Education Scenario
- Title(参考訳): ロボット手術における人工知能と拡張現実の統合:外科教育シナリオを用いた初期dVRK研究
- Authors: Yonghao Long, Jianfeng Cao, Anton Deguet, Russell H. Taylor, and Qi
Dou
- Abstract要約: 我々は,人工知能の手術モジュールと拡張現実の可視化を統合した新しいロボット外科教育システムを開発した。
本システムは,外科教育課題ペグトランスファーの予備実験を通じて評価する。
- 参考スコア(独自算出の注目度): 15.863254207155835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The demand of competent robot assisted surgeons is progressively expanding,
because robot-assisted surgery has become progressively more popular due to its
clinical advantages. To meet this demand and provide a better surgical
education for surgeon, we develop a novel robotic surgery education system by
integrating artificial intelligence surgical module and augmented reality
visualization. The artificial intelligence incorporates reinforcement leaning
to learn from expert demonstration and then generate 3D guidance trajectory,
providing surgical context awareness of the complete surgical procedure. The
trajectory information is further visualized in stereo viewer in the dVRK along
with other information such as text hint, where the user can perceive the 3D
guidance and learn the procedure. The proposed system is evaluated through a
preliminary experiment on surgical education task peg-transfer, which proves
its feasibility and potential as the next generation of robot-assisted surgery
education solution.
- Abstract(参考訳): 有能なロボット補助外科医の需要は、臨床上の優位性から徐々に高まりつつあるため、徐々に拡大している。
この要求に応え,より優れた外科教育を提供するため,人工知能の手術モジュールと拡張現実の可視化を統合した新しいロボット外科教育システムを開発した。
人工知能は、専門家のデモンストレーションから学習するために強化傾きを取り入れ、3D誘導軌道を生成し、完全な外科手術のコンテキスト認識を提供する。
軌跡情報は、テキストヒントなどの他の情報とともに、dVRKのステレオビューアでさらに可視化され、3Dガイダンスを認識して手順を学ぶことができる。
本システムは,次世代のロボット支援外科教育ソリューションとしての可能性と可能性を実証した,外科教育課題ペグトランスファーの予備実験を通じて評価する。
関連論文リスト
- Enhancing Surgical Performance in Cardiothoracic Surgery with
Innovations from Computer Vision and Artificial Intelligence: A Narrative
Review [12.241487673677517]
このナラティブレビューは、技術的および非技術的外科的スキル、タスクパフォーマンス、ポーズ推定に関する研究をまとめたものである。
これは、コンピュータビジョンと人工知能の革新によって、心胸部外科的パフォーマンスを向上する新たな機会を描いている。
論文 参考訳(メタデータ) (2024-02-17T14:16:25Z) - Deep Multimodal Fusion for Surgical Feedback Classification [70.53297887843802]
外科的フィードバックの5カテゴリー分類を臨床的に検証した。
次に,テキスト,音声,ビデオモダリティの入力から,これらの5つのカテゴリの外科的フィードバックを分類するために,多ラベル機械学習モデルを開発した。
我々の研究の最終的な目標は、リアルタイムな文脈的外科的フィードバックのアノテーションを大規模に自動化することである。
論文 参考訳(メタデータ) (2023-12-06T01:59:47Z) - Toward a Surgeon-in-the-Loop Ophthalmic Robotic Apprentice using
Reinforcement and Imitation Learning [0.8520624117635328]
眼内白内障手術における外科医中心の自律エージェントに対するシミュレーションに基づく画像誘導アプローチを提案する。
本研究は,外科医の行動と嗜好をトレーニングプロセスに組み込むことで,ロボットが個別の外科医の独特なアプローチを暗黙的に学習し適応することを可能にする。
我々のアプローチは、他の眼科手術に拡張する可能性があり、新しい世代の手術ロボットへの扉を開く。
論文 参考訳(メタデータ) (2023-11-29T15:00:06Z) - SAMSNeRF: Segment Anything Model (SAM) Guides Dynamic Surgical Scene
Reconstruction by Neural Radiance Field (NeRF) [4.740415113160021]
本稿では,Segment Anything Model(SAM)とNeRF技術を組み合わせたSAMSNeRFという新しい手法を提案する。
内視鏡下外科的画像を用いた実験の結果,高忠実度ダイナミックな手術シーンの再構築に成功していることが示された。
論文 参考訳(メタデータ) (2023-08-22T20:31:00Z) - Learning Multi-modal Representations by Watching Hundreds of Surgical
Video Lectures [54.376834698110684]
本研究では,オープンな外科的eラーニングプラットフォームを通じて利用可能な手術ビデオ講義が,効果的な監視信号を提供することができるという考えを提起した。
我々は複数の補完的な自動音声認識システムを用いてテキストの書き起こしを生成する。
次に、多モーダル表現学習のための新しい方法、Surg - Surgery Vision Language Pre-trainingを提案する。
論文 参考訳(メタデータ) (2023-07-27T22:38:12Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Collaborative Robotic Ultrasound Tissue Scanning for Surgical Resection
Guidance in Neurosurgery [1.372026330898297]
本研究の目的は、自律型iUS組織スキャンのためのロボットプラットフォームを導入することである。
提案プラットフォームの重要な応用は、腫瘍切除をガイドする脳組織のスキャンである。
論文 参考訳(メタデータ) (2023-01-19T17:05:07Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Robotic Surgery Remote Mentoring via AR with 3D Scene Streaming and Hand
Interaction [14.64569748299962]
本稿では,3次元シーンの可視化と自然な3次元手動インタラクションを併用した,ARによるロボット手術遠隔指導システムを提案する。
ヘッドマウントディスプレイ(HoloLens)を使用して、メンターは訓練生の操作側から流れる手順を遠隔で監視することができる。
実際の手術ステレオビデオと、一般的なロボット訓練作業の生き残りシナリオの両方において、本システムを検証した。
論文 参考訳(メタデータ) (2022-04-09T03:17:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。