論文の概要: Automated Patient Positioning with Learned 3D Hand Gestures
- arxiv url: http://arxiv.org/abs/2407.14903v1
- Date: Sat, 20 Jul 2024 15:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 20:09:56.904740
- Title: Automated Patient Positioning with Learned 3D Hand Gestures
- Title(参考訳): 学習3Dハンドジェスチャを用いた自動位置決め
- Authors: Zhongpai Gao, Abhishek Sharma, Meng Zheng, Benjamin Planche, Terrence Chen, Ziyan Wu,
- Abstract要約: 本稿では,カメラを用いて手の動きを自動的に検出する自動位置決めシステムを提案する。
我々のアプローチは、技術者のジェスチャーを認識し解釈するための、新しい多段階パイプラインに依存している。
以上の結果から,本システムでは,最小限の技術介入で,正確かつ正確な患者の位置決めが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 29.90000893655248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Positioning patients for scanning and interventional procedures is a critical task that requires high precision and accuracy. The conventional workflow involves manually adjusting the patient support to align the center of the target body part with the laser projector or other guiding devices. This process is not only time-consuming but also prone to inaccuracies. In this work, we propose an automated patient positioning system that utilizes a camera to detect specific hand gestures from technicians, allowing users to indicate the target patient region to the system and initiate automated positioning. Our approach relies on a novel multi-stage pipeline to recognize and interpret the technicians' gestures, translating them into precise motions of medical devices. We evaluate our proposed pipeline during actual MRI scanning procedures, using RGB-Depth cameras to capture the process. Results show that our system achieves accurate and precise patient positioning with minimal technician intervention. Furthermore, we validate our method on HaGRID, a large-scale hand gesture dataset, demonstrating its effectiveness in hand detection and gesture recognition.
- Abstract(参考訳): スキャンおよび介入手順のための患者の位置決めは、高い精度と正確性を必要とする重要な課題である。
従来のワークフローでは、患者サポートを手動で調整し、対象身体部分の中心をレーザープロジェクタや他の誘導装置と整列させる。
このプロセスは時間を要するだけでなく、不正確さも伴う。
そこで本研究では,カメラを用いて手の動きを検知し,対象の患者領域をシステムに表示し,自動位置決めを開始する自動位置決めシステムを提案する。
われわれのアプローチは、技術者のジェスチャーを認識し、解釈するための、新しい多段階パイプラインに依存しており、それらを医療機器の正確な動作に変換する。
RGB-Depth カメラを用いて実際のMRIスキャン過程におけるパイプラインの評価を行った。
以上の結果から,本システムでは,最小限の技術介入で,正確かつ正確な患者の位置決めが可能であることが示唆された。
さらに,大規模な手ジェスチャーデータセットであるHaGRIDについて,手検出とジェスチャー認識の有効性を実証し,本手法の有効性を検証した。
関連論文リスト
- Autonomous Robotic Ultrasound System for Liver Follow-up Diagnosis: Pilot Phantom Study [9.293259833488223]
本稿では,地域外来患者を対象とした肝臓追跡検査を目的とした,新しい自律型ロボット超音波(US)システムを提案する。
3次元肝静脈の正確な画像化が可能であり,CTとロボットの正確な座標マッピングが容易である。
提案フレームワークは,医療提供者,臨床医,フォローアップ患者の時間とコストを大幅に削減する可能性を秘めている。
論文 参考訳(メタデータ) (2024-05-09T14:11:20Z) - Training-free image style alignment for self-adapting domain shift on
handheld ultrasound devices [54.476120039032594]
本稿では,ハンドヘルドデバイスデータのスタイルを標準デバイスと整合させるための,トレーニングフリーなイメージスタイルアライメント(TISA)フレームワークを提案する。
TISAは、余分な訓練なしにハンドヘルドデバイスイメージを直接推測することができ、臨床応用に適している。
論文 参考訳(メタデータ) (2024-02-17T07:15:23Z) - Data-Driven Goal Recognition in Transhumeral Prostheses Using Process
Mining Techniques [7.95507524742396]
アクティブな義肢は、リアルに評価された連続的なセンサーデータを使用して、患者の標的のポーズや目標を認識し、人工肢を積極的に移動させる。
これまでの研究では、静止ポーズで収集されたデータが、時間ステップを考慮せずに、目標の識別にどの程度役立つかが研究されてきた。
我々のアプローチは、データを離散的なイベントに変換し、既存のプロセスマイニングベースのゴール認識システムを訓練することである。
論文 参考訳(メタデータ) (2023-09-15T02:03:59Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - Mapping Surgeon's Hand/Finger Motion During Conventional Microsurgery to
Enhance Intuitive Surgical Robot Teleoperation [0.5635300481123077]
現在の人間とロボットのインターフェイスは直感的な遠隔操作がなく、外科医の手や指の動きを模倣することはできない。
本研究は, 心臓微小外科手術における外科医の総手の動きと微細なシナジー運動を直感的に記録し, マッピングする方法を示すパイロット研究である。
論文 参考訳(メタデータ) (2021-02-21T11:21:30Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。