論文の概要: Depth Over RGB: Automatic Evaluation of Open Surgery Skills Using Depth
Camera
- arxiv url: http://arxiv.org/abs/2401.10037v1
- Date: Thu, 18 Jan 2024 15:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 16:10:42.955080
- Title: Depth Over RGB: Automatic Evaluation of Open Surgery Skills Using Depth
Camera
- Title(参考訳): depth over rgb: depth cameraを用いた開手術スキルの自動評価
- Authors: Ido Zuckerman, Nicole Werner, Jonathan Kouchly, Emma Huston, Shannon
DiMarco, Paul DiMusto, Shlomi Laufer
- Abstract要約: この研究は、深度カメラがRGBカメラと同様の結果を得ることを示すことを目的としている。
ディープカメラは、照明のバリエーションに対する堅牢性、カメラの位置決め、単純化されたデータ圧縮、プライバシー強化などの利点を提供する。
- 参考スコア(独自算出の注目度): 0.8246494848934447
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Purpose: In this paper, we present a novel approach to the automatic
evaluation of open surgery skills using depth cameras. This work is intended to
show that depth cameras achieve similar results to RGB cameras, which is the
common method in the automatic evaluation of open surgery skills. Moreover,
depth cameras offer advantages such as robustness to lighting variations,
camera positioning, simplified data compression, and enhanced privacy, making
them a promising alternative to RGB cameras.
Methods: Experts and novice surgeons completed two simulators of open
suturing. We focused on hand and tool detection, and action segmentation in
suturing procedures. YOLOv8 was used for tool detection in RGB and depth
videos. Furthermore, UVAST and MSTCN++ were used for action segmentation. Our
study includes the collection and annotation of a dataset recorded with Azure
Kinect.
Results: We demonstrated that using depth cameras in object detection and
action segmentation achieves comparable results to RGB cameras. Furthermore, we
analyzed 3D hand path length, revealing significant differences between experts
and novice surgeons, emphasizing the potential of depth cameras in capturing
surgical skills. We also investigated the influence of camera angles on
measurement accuracy, highlighting the advantages of 3D cameras in providing a
more accurate representation of hand movements.
Conclusion: Our research contributes to advancing the field of surgical skill
assessment by leveraging depth cameras for more reliable and privacy
evaluations. The findings suggest that depth cameras can be valuable in
assessing surgical skills and provide a foundation for future research in this
area.
- Abstract(参考訳): 目的:本論文では,深度カメラを用いた開手術スキルの自動評価のための新しいアプローチを提案する。
本研究は, 開腹術式の自動評価において一般的な方法であるRGBカメラと, 奥行きカメラが類似した結果が得られることを示すものである。
さらに、ディープカメラは、照明のバリエーションに対する堅牢性、カメラの位置決め、データ圧縮の簡略化、プライバシーの強化といった利点があり、RGBカメラの代替として有望である。
方法:専門医と初心者の外科医が2つの縫合シミュレーターを完成させた。
縫合術における手・道具検出とアクションセグメンテーションに焦点をあてた。
YOLOv8はRGBとディープビデオのツール検出に使用された。
さらに、UVASTとMSTCN++はアクションセグメンテーションに使われた。
私たちの研究には、Azure Kinectで記録されたデータセットの収集とアノテーションが含まれています。
結果: 物体検出およびアクションセグメンテーションにおける深度カメラの使用はRGBカメラに匹敵する結果が得られた。
さらに,3dハンドパス長を解析し,専門医と初心者外科医の間に有意な差を認め,手術スキル獲得における奥行きカメラの可能性を強調した。
また,計測精度に及ぼすカメラ角度の影響についても検討し,手の動きをより正確に表現できる3dカメラの利点を明らかにした。
結論: 本研究は, より信頼性の高いプライバシー評価に奥行きカメラを活用し, 外科的スキル評価の進歩に寄与する。
この結果から,深度カメラは外科的スキルの評価に有用であり,今後の研究の基盤となる可能性が示唆された。
関連論文リスト
- Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、現実世界の手術の仮想レプリカを作成するプロセスである。
脊椎外科手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - WS-SfMLearner: Self-supervised Monocular Depth and Ego-motion Estimation
on Surgical Videos with Unknown Camera Parameters [0.0]
正確で堅牢な自己監督深度とカメラエゴモーション推定システムの構築は、コンピュータビジョンコミュニティから注目を集めている。
本研究では,正確な深度マップやカメラポーズだけでなく,カメラ固有のパラメータも予測できる自己教師付き深度・エゴモーション推定システムを構築することを目的とした。
論文 参考訳(メタデータ) (2023-08-22T20:35:24Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Deep Selection: A Fully Supervised Camera Selection Network for Surgery
Recordings [9.242157746114113]
手術用ランプに複数のカメラを埋め込んだ記録システムを用いる。
組込みカメラは複数のビデオシーケンスを取得できるため,手術の最良の視点でカメラを選択する作業に対処する。
手術現場の面積の大きさに基づいてカメラを選択する従来の方法とは異なり、複数のビデオシーケンスからカメラ選択確率を予測するディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:00:08Z) - Using Hand Pose Estimation To Automate Open Surgery Training Feedback [0.0]
本研究は,外科医の自動訓練における最先端のコンピュータビジョンアルゴリズムの利用を促進することを目的としている。
2次元手のポーズを推定することにより,手の動きをモデル化し,手術器具との相互作用をモデル化する。
論文 参考訳(メタデータ) (2022-11-13T21:47:31Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Exploiting Depth Information for Wildlife Monitoring [0.0]
深度推定を用いて動物を検知・識別するカメラトラップを用いた自動手法を提案する。
個々の動物を検出・識別するために,いわゆるインスタンスセグメンテーションのための新しい手法D-Mask R-CNNを提案する。
実験により,動物検出における平均精度スコアの改善による追加深度推定の利点が示された。
論文 参考訳(メタデータ) (2021-02-10T18:10:34Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。