論文の概要: Machine Vision-Based Surgical Lighting System:Design and Implementation
- arxiv url: http://arxiv.org/abs/2510.17287v1
- Date: Mon, 20 Oct 2025 08:22:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.36848
- Title: Machine Vision-Based Surgical Lighting System:Design and Implementation
- Title(参考訳): 機械ビジョンに基づく手術照明システム:設計と実装
- Authors: Amir Gharghabi, Mahdi Hakiminezhad, Maryam Shafaei, Shaghayegh Gharghabi,
- Abstract要約: YOLOモデルは、手術シーンをシミュレートした注釈付き画像からなる検証セットで96.7%のmAP@50を達成する。
このマシンビジョンベースのソリューションは、外科医の身体的負担を軽減し、照明の一貫性を改善し、手術結果の改善をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effortless and ergonomically designed surgical lighting is critical for precision and safety during procedures. However, traditional systems often rely on manual adjustments, leading to surgeon fatigue, neck strain, and inconsistent illumination due to drift and shadowing. To address these challenges, we propose a novel surgical lighting system that leverages the YOLOv11 object detection algorithm to identify a blue marker placed above the target surgical site. A high-power LED light source is then directed to the identified location using two servomotors equipped with tilt-pan brackets. The YOLO model achieves 96.7% mAP@50 on the validation set consisting of annotated images simulating surgical scenes with the blue spherical marker. By automating the lighting process, this machine vision-based solution reduces physical strain on surgeons, improves consistency in illumination, and supports improved surgical outcomes.
- Abstract(参考訳): 無害で人間工学的に設計された手術用照明は、手術中の精度と安全性に重要である。
しかし、伝統的なシステムは手動の調整に頼り、外科医の疲労、首の歪み、漂流と影による矛盾した照明に繋がる。
これらの課題に対処するために, YOLOv11オブジェクト検出アルゴリズムを利用して, 対象部位の上部に位置する青色マーカーを同定する新しい手術照明システムを提案する。
高出力LED光源は、傾斜パンブラケットを備えた2つのサーボモレータを使用して、特定された場所に向けられる。
YOLOモデルは、手術シーンを青い球面マーカーでシミュレートした注釈付き画像からなる検証セットで96.7%のmAP@50を達成する。
照明の自動化により、この機械ビジョンベースのソリューションは、外科医の身体的負担を軽減し、照明の一貫性を改善し、手術結果の改善をサポートする。
関連論文リスト
- Evaluation of facial landmark localization performance in a surgical setting [0.0]
多くの顔検出アルゴリズムは神経外科、眼科、整形外科に応用されている。
これらのアルゴリズムを使用する際の一般的な課題は、患者を特定、正確に局所化するための様々な照明条件と検出位置の柔軟性である。
提案実験では,手術光と幻覚が一定位置にある状態で自動的に位置を調整するロボットアームを用いて,制御された環境下で顔のランドマークを検出するためのMediaPipeアルゴリズムを試験した。
論文 参考訳(メタデータ) (2025-07-24T09:40:47Z) - Stable Tracking of Eye Gaze Direction During Ophthalmic Surgery [6.887111029199582]
本研究は,機械学習と従来のアルゴリズムを組み合わせた,革新的なアイローカライゼーションと追跡手法を提案する。
提案手法は、視線方向推定における平均推定誤差が0.58度、ロボットアームの動きに対する平均制御誤差が2.08度である。
論文 参考訳(メタデータ) (2025-07-01T10:28:40Z) - Benchmarking Laparoscopic Surgical Image Restoration and Beyond [54.28852320829451]
腹腔鏡下手術では、明瞭で高品質な視野が外科医の正確な判断に不可欠である。
持続的な視覚劣化、例えば、エネルギー装置によって発生する煙、熱勾配から光るレンズ、およびレンズ汚染は患者の安全に危険をもたらす。
本稿では,SurgCleanと呼ばれる腹腔鏡下環境を対象とするオープンソースの手術画像復元データセットについて紹介する。
論文 参考訳(メタデータ) (2025-05-25T14:17:56Z) - Deep intra-operative illumination calibration of hyperspectral cameras [73.08443963791343]
ハイパースペクトルイメージング (HSI) は, 様々な手術応用に期待できる新しい画像モダリティとして出現している。
手術室における照明条件の動的変化がHSIアプリケーションの性能に劇的な影響を及ぼすことを示す。
手術中におけるハイパースペクトル画像の自動再構成のための新しい学習ベースアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-11T08:30:03Z) - Robotic Constrained Imitation Learning for the Peg Transfer Task in Fundamentals of Laparoscopic Surgery [18.64205729932939]
腹腔鏡下手術の基礎(FLS)におけるペグ伝達タスクを模倣学習で行うロボットの実装戦略を提案する。
本研究では,単眼画像のみを用いて,より正確な模倣学習を実現する。
2台のフランカ・エミカ・パンダ・ロボットアームを用いて全体システムを実装し,その有効性を検証した。
論文 参考訳(メタデータ) (2024-05-06T13:12:25Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。