論文の概要: Mobile Exergames: Activity Recognition Based on Smartphone Sensors
- arxiv url: http://arxiv.org/abs/2602.00809v1
- Date: Sat, 31 Jan 2026 16:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.41035
- Title: Mobile Exergames: Activity Recognition Based on Smartphone Sensors
- Title(参考訳): モバイルエクササイズ:スマートフォンセンサを用いたアクティビティ認識
- Authors: David Craveiro, Hugo Silva,
- Abstract要約: 本研究では,Duck Catch & Fitと呼ばれる概念実証2Dエンドレスゲームを提案する。
スマートフォンの加速度計、ジャイロスコープ、磁気センサを使って、詳細なアクティビティ認識システムを実装している。
その結果,機械学習技術を用いて高い認識レベルの人間の活動を認識することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 0.2776043688957992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smartphone sensors can be extremely useful in providing information on the activities and behaviors of persons. Human activity recognition is increasingly used for games, medical, or surveillance. In this paper, we propose a proof-of-concept 2D endless game called Duck Catch & Fit, which implements a detailed activity recognition system that uses a smartphone accelerometer, gyroscope, and magnetometer sensors. The system applies feature extraction and learning mechanism to detect human activities like staying, side movements, and fake side movements. In addition, a voice recognition system is combined to recognize the word "fire" and raise the game's complexity. The results show that it is possible to use machine learning techniques to recognize human activity with high recognition levels. Also, the combination of movement-based and voice-based integrations contributes to a more immersive gameplay.
- Abstract(参考訳): スマートフォンのセンサーは、人の活動や行動に関する情報を提供するのに非常に役立ちます。
人間の行動認識は、ゲーム、医療、監視にますます利用されている。
本稿では,スマートフォン加速度計,ジャイロスコープ,磁気センサを用いた詳細なアクティビティ認識システムを実装した,Duck Catch & Fitと呼ばれる概念実証2Dエンドレスゲームを提案する。
このシステムは特徴抽出と学習機構を適用して、滞在、サイドムーブメント、フェイクサイドムーブメントなどの人間の活動を検出する。
さらに、音声認識システムが組み合わさって「火」という言葉を認識し、ゲームの複雑さを高める。
その結果,機械学習技術を用いて高い認識レベルの人間の活動を認識することが可能であることが示唆された。
また、ムーブメントベースの統合と音声ベースの統合は、より没入的なゲームプレイに寄与する。
関連論文リスト
- Ego4o: Egocentric Human Motion Capture and Understanding from Multi-Modal Input [62.51283548975632]
この研究は、VR/ARヘッドセット、スマートグラス、携帯電話、スマートウォッチなどの消費者向けウェアラブルデバイスを使用して、人間の動きを追跡し、理解することに焦点を当てている。
Ego4o(o for omni)は,マルチモーダルなエゴセントリックインプットから人間の動きを同時に捉え,理解するための新しいフレームワークである。
論文 参考訳(メタデータ) (2025-04-11T11:18:57Z) - Moto: Latent Motion Token as the Bridging Language for Learning Robot Manipulation from Videos [101.26467307473638]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - Human Activity Recognition using Smartphones [0.0]
私たちは、日々の人間の活動を認識し、消費カロリーをリアルタイムで計算するAndroidアプリケーションを作成しました。
これは、メタボリック等価性に基づく式を用いて、リアルタイムな活動認識とカロリー燃焼の計算に使用される。
論文 参考訳(メタデータ) (2024-04-03T17:05:41Z) - Your Day in Your Pocket: Complex Activity Recognition from Smartphone
Accelerometers [7.335712499936904]
本稿では,スマートフォン加速度計データのみを用いた複雑な活動の認識について検討する。
パンデミックの間、私たちは5カ国600人以上のユーザーから収集された大規模なスマートフォンセンシングデータセットを使用しました。
ディープラーニングに基づく8つの複雑なアクティビティのバイナリ分類は、AUROCスコアが部分的にパーソナライズされたモデルで最大0.76に達することで達成できる。
論文 参考訳(メタデータ) (2023-01-17T16:22:30Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Physical Activity Recognition by Utilising Smartphone Sensor Signals [0.0]
本研究では,現代のスマートフォンでジャイロスコープと加速度センサによって記録された計6つの活動に対して,60人の被験者から2日間にわたる人的活動データを収集した。
提案手法は,4つの活動の識別において,98%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-01-20T09:58:52Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Incremental Learning Techniques for Online Human Activity Recognition [0.0]
身体運動のオンライン予測のためのヒューマンアクティビティ認識(HAR)手法を提案する。
我々は,監視ソフトウェアを含むHARシステムと加速度計とジャイロスコープデータを収集するモバイルアプリケーションを開発する。
この研究で6つの漸進的学習アルゴリズムが採用され、オフラインのHARシステムの開発によく使用されるバッチ学習アルゴリズムと比較される。
論文 参考訳(メタデータ) (2021-09-20T11:33:09Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。