論文の概要: A Single RGB Camera Based Gait Analysis with a Mobile Tele-Robot for
Healthcare
- arxiv url: http://arxiv.org/abs/2002.04700v4
- Date: Sun, 15 Mar 2020 03:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:13:42.553430
- Title: A Single RGB Camera Based Gait Analysis with a Mobile Tele-Robot for
Healthcare
- Title(参考訳): 医療用モバイルテレロボットを用いた1台のRGBカメラによる歩行分析
- Authors: Ziyang Wang
- Abstract要約: この研究は、関節矯正や下肢や脊椎の問題評価に広く採用されている歩行の分析に焦点を当てている。
ハードウェア側では,移動ロボットに搭載された低コストのRGBカメラを用いたマーカーレス歩行解析装置を設計する。
- 参考スコア(独自算出の注目度): 9.992387025633805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing awareness of high-quality life, there is a growing need
for health monitoring devices running robust algorithms in home environment.
Health monitoring technologies enable real-time analysis of users' health
status, offering long-term healthcare support and reducing hospitalization
time. The purpose of this work is twofold, the software focuses on the analysis
of gait, which is widely adopted for joint correction and assessing any lower
limb or spinal problem. On the hardware side, we design a novel marker-less
gait analysis device using a low-cost RGB camera mounted on a mobile
tele-robot. As gait analysis with a single camera is much more challenging
compared to previous works utilizing multi-cameras, a RGB-D camera or wearable
sensors, we propose using vision-based human pose estimation approaches. More
specifically, based on the output of two state-of-the-art human pose estimation
models (Openpose and VNect), we devise measurements for four bespoke gait
parameters: inversion/eversion, dorsiflexion/plantarflexion, ankle and foot
progression angles. We thereby classify walking patterns into normal,
supination, pronation and limp. We also illustrate how to run the purposed
machine learning models in low-resource environments such as a single
entry-level CPU. Experiments show that our single RGB camera method achieves
competitive performance compared to state-of-the-art methods based on depth
cameras or multi-camera motion capture system, at smaller hardware costs.
- Abstract(参考訳): 高品質な生活に対する意識が高まるにつれ、ホーム環境で堅牢なアルゴリズムを実行する健康モニタリングデバイスの必要性が高まっている。
健康モニタリング技術は、ユーザーの健康状態のリアルタイム分析を可能にし、長期医療支援と入院時間を短縮する。
この研究の目的は2つであり、ソフトウェアは歩行の分析に重点を置いており、関節矯正や下肢や脊椎の問題の評価に広く採用されている。
ハードウェア側では,移動ロボットに搭載された低コストのRGBカメラを用いたマーカーレス歩行解析装置を設計する。
従来のマルチカメラやrgb-dカメラ、ウェアラブルセンサーなどに比べ、単一カメラでの歩行分析ははるかに難しいため、視覚に基づく人間のポーズ推定手法を提案する。
具体的には,2つの最先端人のポーズ推定モデル(OpenposeとVNect)の出力に基づいて,倒立・倒立・背屈・足関節屈曲・足首・足底進行角の4つの歩行パラメータの測定を行った。
これにより、歩行パターンを正常、supination、pronation、limpに分類する。
また,単一エントリレベルcpuなどの低リソース環境において,汎用機械学習モデルを動作させる方法についても述べる。
実験の結果,単一のrgbカメラは,ハードウェアコストが小さく,奥行きカメラやマルチカメラモーションキャプチャシステムに基づく最先端の手法と比較して,性能に優れることがわかった。
関連論文リスト
- Multi-Camera Hand-Eye Calibration for Human-Robot Collaboration in Industrial Robotic Workcells [3.76054468268713]
産業シナリオでは、人間とロボットの効果的なコラボレーションは、人間のオペレーターをしっかりと監視するマルチカメラシステムに依存している。
本稿では,ロボットのベースとカメラの双方に対して,それぞれのカメラのポーズを最適化する,革新的で堅牢なマルチカメラハンドアイキャリブレーション手法を提案する。
産業シナリオで収集したMETRICデータセットと実世界のデータを用いた包括的実験により,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-17T10:23:30Z) - Real-time, accurate, and open source upper-limb musculoskeletal analysis using a single RGBD camera [0.14999444543328289]
バイオメカニカルバイオフィードバックは、リハビリテーションを強化し、より客観的なタスク評価を提供する。
我々のオープンソースアプローチは、単一の低コストのRGBDカメラを使用して、高忠実な上肢キネマティクスのためのユーザフレンドリーなソリューションを提供します。
論文 参考訳(メタデータ) (2024-06-14T13:20:05Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - XAI-based gait analysis of patients walking with Knee-Ankle-Foot
orthosis using video cameras [1.8749305679160366]
本稿では,カメラの動きに頑健な歩行解析システムを提案する。
提案システムは,前処理時に超解像とポーズ推定を用いる。
次に、ストライド長、ステップ長、フォーメーションの7つの特徴、正統および非正統の脚、ケイデンス、スピードの単独サポートを識別する。
論文 参考訳(メタデータ) (2024-02-25T19:05:10Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Spectral Sensitivity Estimation Without a Camera [6.599344783327053]
コンピュータビジョンや関連分野における多くの問題は、カメラのスペクトル感度が分かっていれば緩和される。
本稿では,ハードウェアを必要とせず,カメラ自体への物理的アクセスを必要としないスペクトル感度推定フレームワークを提案する。
我々は1000以上のカメラに対してコードと予測感度を提供し、カメラ応答が利用可能になったときにどのタスクが簡単になるかについて議論する。
論文 参考訳(メタデータ) (2023-04-23T06:18:07Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Multi-view Human Pose and Shape Estimation Using Learnable Volumetric
Aggregation [0.0]
キャリブレーションされた多視点画像から3次元人体ポーズと形状を再構成する学習可能なアグリゲーション手法を提案する。
従来の手法と比較して,我々のフレームワークは,コスト効率を考えると,より精度が高く,リアルタイムな予測が期待できる。
論文 参考訳(メタデータ) (2020-11-26T18:33:35Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Active Perception with A Monocular Camera for Multiscopic Vision [50.370074098619185]
低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
論文 参考訳(メタデータ) (2020-01-22T08:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。