論文の概要: Handwashing Action Detection System for an Autonomous Social Robot
- arxiv url: http://arxiv.org/abs/2210.15804v1
- Date: Thu, 27 Oct 2022 23:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:52:34.616024
- Title: Handwashing Action Detection System for an Autonomous Social Robot
- Title(参考訳): 自律型社会ロボットのハンドウォッシング動作検出システム
- Authors: Sreejith Sasidharan, Pranav Prabha, Devasena Pasupuleti, Anand M Das,
Chaitanya Kapoor, Gayathri Manikutty, Praveen Pankajakshan, Bhavani Rao
- Abstract要約: 幼児は不適切な手衛生のため、新型コロナウイルスなどの伝染病に罹患するリスクが高まっている。
子どもを手洗いしながら観察し、良い手洗いを奨励する自律型ソーシャルエージェントは、手洗い行動が習慣になる機会を提供する。
本稿では,ソーシャルロボットプラットフォームにおける視覚システムの一部であるヒューマンアクション認識システムについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Young children are at an increased risk of contracting contagious diseases
such as COVID-19 due to improper hand hygiene. An autonomous social agent that
observes children while handwashing and encourages good hand washing practices
could provide an opportunity for handwashing behavior to become a habit. In
this article, we present a human action recognition system, which is part of
the vision system of a social robot platform, to assist children in developing
a correct handwashing technique. A modified convolution neural network (CNN)
architecture with Channel Spatial Attention Bilinear Pooling (CSAB) frame, with
a VGG-16 architecture as the backbone is trained and validated on an augmented
dataset. The modified architecture generalizes well with an accuracy of 90% for
the WHO-prescribed handwashing steps even in an unseen environment. Our
findings indicate that the approach can recognize even subtle hand movements in
the video and can be used for gesture detection and classification in social
robotics.
- Abstract(参考訳): 幼児は不適切な手衛生のため、新型コロナウイルスなどの伝染病に罹患するリスクが高まっている。
子供の手洗いを観察し、手洗いの実践を奨励する自律型ソーシャルエージェントは、手洗い行動が習慣になる機会を提供する。
本稿では,ソーシャルロボットプラットフォームにおける視覚システムの一部であるヒューマンアクション認識システムについて述べる。
改良された畳み込みニューラルネットワーク(CNN)アーキテクチャとチャネル空間注意バイリニアポーリング(CSAB)フレームは、バックボーンとしてVGG-16アーキテクチャをトレーニングし、拡張データセット上で検証する。
修正されたアーキテクチャは、WHOが規定するハンドウォッシングステップに対して90%の精度で、目に見えない環境でもうまく一般化する。
本研究は, 映像中の手の動きを微妙に認識し, ジェスチャー検出や社会ロボティクスの分類に利用できることを示す。
関連論文リスト
- Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - A Novel IoT-based Framework for Non-Invasive Human Hygiene Monitoring
using Machine Learning Techniques [1.4260605984981949]
本稿では,振動センサを用いたヒト衛生モニタリングのための新しい枠組みを提案する。
アプローチは、実用的な囲いにおける、ジオフォンセンサ、ディジタイザ、コスト効率の高いコンピュータボードの組み合わせに基づいている。
バイナリ分類のためのサポートベクトルマシンの適用は、異なる衛生習慣の分類において95%の有望な精度を示す。
論文 参考訳(メタデータ) (2022-07-07T18:48:48Z) - DexVIP: Learning Dexterous Grasping with Human Hand Pose Priors from
Video [86.49357517864937]
DexVIPは,人間と物体のインタラクションビデオから,器用なロボットの把握を学習する手法である。
我々は、人間とオブジェクトのインタラクションビデオから把握した画像をキュレートし、エージェントの手のポーズに先行する。
DexVIPは、手ポーズの無い既存のアプローチや、特殊な遠隔操作機器に頼っている既存のアプローチと良好に比較できることを実証する。
論文 参考訳(メタデータ) (2022-02-01T00:45:57Z) - A Deep Learning Based Automated Hand Hygiene Training System [0.12313056815753944]
WHOは、すべての手の表面が完全にきれいであることを保証するため、アルコールベースの手こりのガイドラインを8段階で推奨している。
ディープニューラルネットワーク(DNN)とマシンビジョンにより、手こりの品質を正確に評価することが可能になった。
本稿では,リアルタイムフィードバックを用いたディープラーニングによる手こり自動評価システムについて述べる。
論文 参考訳(メタデータ) (2021-12-10T17:01:44Z) - Automatic Unstructured Handwashing Recognition using Smartwatch to
Reduce Contact Transmission of Pathogens [2.578242050187029]
SARSCoV-2ウイルスは呼吸液滴や接触によって伝染する。
現在のスマートウォッチは、被験者がいつ手を洗っているか、または手をこすっているかを認識でき、周波数や時間などのパラメータを監視することができる。
予備実験の結果,深層学習と標準学習のそれぞれで95%,約94%の分類精度が得られた。
論文 参考訳(メタデータ) (2021-07-28T14:52:45Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Automated Quality Assessment of Hand Washing Using Deep Learning [1.8920934738244022]
WHOが定義する異なる洗面運動を自動的に認識するニューラルネットワークを提案する。
ニューラルネットワークは、大きな(2000以上のビデオ)実世界のラベル付きデータセットの一部で、異なる洗浄運動でトレーニングします。
タスクにMobileNetV2やXceptionなどのトレーニング済みニューラルネットワークモデルを使用することで、異なる洗濯動作を認識する上で、64%の精度を達成することができる。
論文 参考訳(メタデータ) (2020-11-23T13:22:53Z) - A Developmental Neuro-Robotics Approach for Boosting the Recognition of
Handwritten Digits [91.3755431537592]
近年のエビデンスでは、子どもの体現戦略をシミュレーションすることで、マシンインテリジェンスも改善できることが示されている。
本稿では,発達神経ロボティクスの文脈における畳み込みニューラルネットワークモデルへの具体的戦略の適用について検討する。
論文 参考訳(メタデータ) (2020-03-23T14:55:00Z) - Fully Automated Hand Hygiene Monitoring\\in Operating Room using 3D
Convolutional Neural Network [0.0]
病院接種感染症(HAI)予防の最も重要な要因は手衛生である
畳み込みニューラルネット(CNN)による理解の最近の進歩は、人間の行動の認識と検出の応用を増大させている。
そこで本研究では,3次元CNNを用いた時間的特徴を用いたORビデオにおけるアルコール系手こりの完全自動モニタリングツールを提案する。
論文 参考訳(メタデータ) (2020-03-20T03:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。