論文の概要: Deep learning-based approaches for human motion decoding in smart
walkers for rehabilitation
- arxiv url: http://arxiv.org/abs/2301.05575v1
- Date: Fri, 13 Jan 2023 14:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:06:47.828652
- Title: Deep learning-based approaches for human motion decoding in smart
walkers for rehabilitation
- Title(参考訳): スマートウォーカにおける深層学習に基づく人間の動作復号法
- Authors: Carolina Gon\c{c}alves, Jo\~ao M. Lopes, Sara Moccia, Daniele
Berardini, Lucia Migliorelli, and Cristina P. Santos
- Abstract要約: スマートウォーカーは、できるだけ早く人間の動きとニーズをデコードできなければならない。
現在の歩行者はウェアラブルや組込みセンサーの情報を用いて動きの意図を復号する。
早期の動作認識・検出問題として人間の動作復号化に対処する非接触アプローチを提案する。
- 参考スコア(独自算出の注目度): 3.8791511769387634
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gait disabilities are among the most frequent worldwide. Their treatment
relies on rehabilitation therapies, in which smart walkers are being introduced
to empower the user's recovery and autonomy, while reducing the clinicians
effort. For that, these should be able to decode human motion and needs, as
early as possible. Current walkers decode motion intention using information of
wearable or embedded sensors, namely inertial units, force and hall sensors,
and lasers, whose main limitations imply an expensive solution or hinder the
perception of human movement. Smart walkers commonly lack a seamless
human-robot interaction, which intuitively understands human motions. A
contactless approach is proposed in this work, addressing human motion decoding
as an early action recognition/detection problematic, using RGB-D cameras. We
studied different deep learning-based algorithms, organised in three different
approaches, to process lower body RGB-D video sequences, recorded from an
embedded camera of a smart walker, and classify them into 4 classes (stop,
walk, turn right/left). A custom dataset involving 15 healthy participants
walking with the device was acquired and prepared, resulting in 28800 balanced
RGB-D frames, to train and evaluate the deep networks. The best results were
attained by a convolutional neural network with a channel attention mechanism,
reaching accuracy values of 99.61% and above 93%, for offline early
detection/recognition and trial simulations, respectively. Following the
hypothesis that human lower body features encode prominent information,
fostering a more robust prediction towards real-time applications, the
algorithm focus was also evaluated using Dice metric, leading to values
slightly higher than 30%. Promising results were attained for early action
detection as a human motion decoding strategy, with enhancements in the focus
of the proposed architectures.
- Abstract(参考訳): 歩行障害は世界でも最も多い。
彼らの治療はリハビリテーション治療に依存しており、スマートウォーカーは患者の回復と自律性を高めるために導入され、臨床医の努力は減少している。
そのためには、できるだけ早く、人間の動きとニーズをデコードできるはずだ。
現在のウォーカーは、ウェアラブルや組み込みセンサー(慣性ユニット、力とホールのセンサー、レーザーなど)の情報を使って動きの意図を解読する。
スマートウォーカーには通常、人間の動きを直感的に理解するシームレスな人間とロボットのインタラクションが欠けている。
本稿では,RGB-Dカメラを用いた早期動作認識・検出問題として,人間の動作復号化に対処する非接触方式を提案する。
3つの異なるアプローチで組織化された異なるディープラーニングベースのアルゴリズムを研究し、スマートウォーカーの埋め込みカメラから、下部のrgb-dビデオシーケンスを処理し、それらを4つのクラス(ストップ、ウォーク、右/左)に分類した。
デバイスを使って歩く15人の健康な参加者によるカスタムデータセットを取得し、28800のバランスのとれたrgb-dフレームを作成し、ディープネットワークのトレーニングと評価を行った。
最良の結果は、チャネルアテンション機構を備えた畳み込みニューラルネットワークによって達成され、それぞれオフライン早期検出/認識とトライアルシミュレーションの精度99.61%と93%以上に達した。
ヒトの下半身の特徴が顕著な情報をエンコードし、リアルタイムアプリケーションに対するより強固な予測を促進するという仮説に従い、アルゴリズムの焦点はサイスメトリックを用いて評価され、値が30%よりわずかに高い値となった。
提案したアーキテクチャに焦点を絞った人間の動作復号戦略として,早期動作検出の成果が得られた。
関連論文リスト
- COIN: Control-Inpainting Diffusion Prior for Human and Camera Motion Estimation [98.05046790227561]
COINは、人間の動きとカメラの動きを細粒度に制御できる、コントロール・インパインティング・モーション拡散である。
COINは、グローバルな人間の動き推定とカメラの動き推定という観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-08-29T10:36:29Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Conformalized Teleoperation: Confidently Mapping Human Inputs to High-Dimensional Robot Actions [4.855534476454559]
低次元人間の入力から高次元ロボット動作へのマッピングを学習する。
我々のキーとなる考え方は、訓練時に補助地図を適応させ、高次元のアクション量子化を付加的に見積もることである。
本研究では,不確実なユーザ入力やロボットの状態を検出する不確実なインターバル機構を提案する。
論文 参考訳(メタデータ) (2024-06-11T23:16:46Z) - A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Decomposed Human Motion Prior for Video Pose Estimation via Adversarial
Training [7.861513525154702]
本稿では, ニューラルネットワークが先行知識から容易に学習できるように, 関節運動の前に全体運動を分解することを提案する。
また,新たな正規化損失を利用して,前もって導入された動きの正確さと滑らかさのバランスをとる。
提案手法は従来の3DPW法と比較して, PA-MPJPEが9%, 加速度誤差が29%低い。
論文 参考訳(メタデータ) (2023-05-30T04:53:34Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Incremental Learning Techniques for Online Human Activity Recognition [0.0]
身体運動のオンライン予測のためのヒューマンアクティビティ認識(HAR)手法を提案する。
我々は,監視ソフトウェアを含むHARシステムと加速度計とジャイロスコープデータを収集するモバイルアプリケーションを開発する。
この研究で6つの漸進的学習アルゴリズムが採用され、オフラインのHARシステムの開発によく使用されるバッチ学習アルゴリズムと比較される。
論文 参考訳(メタデータ) (2021-09-20T11:33:09Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z) - Real-Time Human Pose Estimation on a Smart Walker using Convolutional
Neural Networks [4.076099054649463]
スマートウォーカのコンテキストにおける患者モニタリングとデータ駆動型ヒューマン・イン・ザ・ループ制御に対する新しいアプローチを提案する。
完全かつコンパクトなボディ表現を、リアルタイムおよび安価なセンサーから抽出することができる。
有望な結果にもかかわらず、現実のシナリオにおけるリハビリテーションツールとしてのパフォーマンスを評価するために、障害のあるユーザにより多くのデータを収集する必要がある。
論文 参考訳(メタデータ) (2021-06-28T14:11:48Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Deep Learning of Movement Intent and Reaction Time for EEG-informed
Adaptation of Rehabilitation Robots [0.0]
適応は 運動学習の促進において リハビリテーションロボットにとって 重要なメカニズムです
本稿では,脳波を用いた深部畳み込みニューラルネットワーク(CNN)を提案する。
本研究は,脳波の同期データから,個別の運動成分が運動学習にどう関与するかを予測できることを示す。
論文 参考訳(メタデータ) (2020-02-18T13:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。