論文の概要: Stable Tracking of Eye Gaze Direction During Ophthalmic Surgery
- arxiv url: http://arxiv.org/abs/2507.00635v1
- Date: Tue, 01 Jul 2025 10:28:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.573359
- Title: Stable Tracking of Eye Gaze Direction During Ophthalmic Surgery
- Title(参考訳): 眼科手術時の視線方向の安定追跡
- Authors: Tinghe Hong, Shenlin Cai, Boyang Li, Kai Huang,
- Abstract要約: 本研究は,機械学習と従来のアルゴリズムを組み合わせた,革新的なアイローカライゼーションと追跡手法を提案する。
提案手法は、視線方向推定における平均推定誤差が0.58度、ロボットアームの動きに対する平均制御誤差が2.08度である。
- 参考スコア(独自算出の注目度): 6.887111029199582
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ophthalmic surgical robots offer superior stability and precision by reducing the natural hand tremors of human surgeons, enabling delicate operations in confined surgical spaces. Despite the advancements in developing vision- and force-based control methods for surgical robots, preoperative navigation remains heavily reliant on manual operation, limiting the consistency and increasing the uncertainty. Existing eye gaze estimation techniques in the surgery, whether traditional or deep learning-based, face challenges including dependence on additional sensors, occlusion issues in surgical environments, and the requirement for facial detection. To address these limitations, this study proposes an innovative eye localization and tracking method that combines machine learning with traditional algorithms, eliminating the requirements of landmarks and maintaining stable iris detection and gaze estimation under varying lighting and shadow conditions. Extensive real-world experiment results show that our proposed method has an average estimation error of 0.58 degrees for eye orientation estimation and 2.08-degree average control error for the robotic arm's movement based on the calculated orientation.
- Abstract(参考訳): 眼科手術ロボットは、ヒト外科医の自然な手振を低減し、閉じ込められた手術空間での繊細な手術を可能にすることにより、より優れた安定性と精度を提供する。
手術ロボットの視覚および力に基づく制御手法の開発が進んでいるにもかかわらず、手術前ナビゲーションは手動操作に大きく依存し、一貫性を制限し、不確実性を高める。
既存の視線推定技術は、従来のものでも深層学習でも、追加センサーへの依存、手術環境における閉塞問題、顔検出の必要性など、課題に直面している。
これらの制約に対処するために,機械学習と従来のアルゴリズムを併用し,ランドマークの要件を排除し,照明条件や影条件の異なるアイリスの検出と視線推定を安定に維持する,革新的なアイローカライゼーションと追跡手法を提案する。
その結果,提案手法は視線方向推定に平均0.58度,ロボットアームの運動に平均2.8度の誤差を持つことがわかった。
関連論文リスト
- Benchmarking Laparoscopic Surgical Image Restoration and Beyond [54.28852320829451]
腹腔鏡下手術では、明瞭で高品質な視野が外科医の正確な判断に不可欠である。
持続的な視覚劣化、例えば、エネルギー装置によって発生する煙、熱勾配から光るレンズ、およびレンズ汚染は患者の安全に危険をもたらす。
本稿では,SurgCleanと呼ばれる腹腔鏡下環境を対象とするオープンソースの手術画像復元データセットについて紹介する。
論文 参考訳(メタデータ) (2025-05-25T14:17:56Z) - SurgRIPE challenge: Benchmark of Surgical Robot Instrument Pose Estimation [33.39658645724101]
手術器具のポーズ推定のための視覚的手法は、ツールトラッキングに実践的なアプローチを提供するが、多くの場合、器具にマーカを取り付ける必要がある。
近年,ディープラーニングに基づくマーカーレス手法の開発に焦点が当てられている。
2023年の第26回医用画像コンピューティング・コンピュータ支援介入国際会議(MICCAI)で開催されているSurgRIPE(SurgRIPE)の課題について紹介する。
SurgRIPEチャレンジは、この分野の新しいベンチマークを確立することに成功し、外科用ロボット機器のポーズ推定におけるさらなる研究と開発を奨励している。
論文 参考訳(メタデータ) (2025-01-06T13:02:44Z) - Deep intra-operative illumination calibration of hyperspectral cameras [73.08443963791343]
ハイパースペクトルイメージング (HSI) は, 様々な手術応用に期待できる新しい画像モダリティとして出現している。
手術室における照明条件の動的変化がHSIアプリケーションの性能に劇的な影響を及ぼすことを示す。
手術中におけるハイパースペクトル画像の自動再構成のための新しい学習ベースアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-11T08:30:03Z) - Robotic Constrained Imitation Learning for the Peg Transfer Task in Fundamentals of Laparoscopic Surgery [18.64205729932939]
腹腔鏡下手術の基礎(FLS)におけるペグ伝達タスクを模倣学習で行うロボットの実装戦略を提案する。
本研究では,単眼画像のみを用いて,より正確な模倣学習を実現する。
2台のフランカ・エミカ・パンダ・ロボットアームを用いて全体システムを実装し,その有効性を検証した。
論文 参考訳(メタデータ) (2024-05-06T13:12:25Z) - Redefining the Laparoscopic Spatial Sense: AI-based Intra- and
Postoperative Measurement from Stereoimages [3.2039076408339353]
立体視を用いた腹腔鏡計測のための人体AIを用いた新しい手法を開発した。
本研究は, 総合的質的要件分析に基づいて, 包括的測定法を提案する。
提案手法が1mm以下の誤差で精度の高い距離測定を実現する可能性について概説した。
論文 参考訳(メタデータ) (2023-11-16T10:19:04Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - End-to-End assessment of AR-assisted neurosurgery systems [0.5892638927736115]
我々は、AR支援型神経外科システムを評価するための異なる手法を分類し、評価手順を体系化する新しい手法を提案する。
その結果, 物理フィードバックによりホログラム変位による誤差を著しく低減できることがわかった。
ホログラムに対する視覚的フィードバックの欠如は、利用者の3D知覚に大きな影響を与えない。
論文 参考訳(メタデータ) (2023-11-03T13:41:44Z) - Safe Deep RL for Intraoperative Planning of Pedicle Screw Placement [61.28459114068828]
安全な深部強化学習(DRL)に基づく訓練経路計画にリアルタイムな観察を活用するロボット脊椎手術の術中計画手法を提案する。
本手法は,ゴールドスタンダード (GS) 掘削計画に関して,90%の骨貫通を達成できた。
論文 参考訳(メタデータ) (2023-05-09T11:42:53Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。