論文の概要: Mobile Exergames: Activity Recognition Based on Smartphone Sensors
- arxiv url: http://arxiv.org/abs/2602.00809v1
- Date: Sat, 31 Jan 2026 16:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.41035
- Title: Mobile Exergames: Activity Recognition Based on Smartphone Sensors
- Title(参考訳): モバイルエクササイズ:スマートフォンセンサを用いたアクティビティ認識
- Authors: David Craveiro, Hugo Silva,
- Abstract要約: 本研究では,Duck Catch & Fitと呼ばれる概念実証2Dエンドレスゲームを提案する。
スマートフォンの加速度計、ジャイロスコープ、磁気センサを使って、詳細なアクティビティ認識システムを実装している。
その結果,機械学習技術を用いて高い認識レベルの人間の活動を認識することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 0.2776043688957992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smartphone sensors can be extremely useful in providing information on the activities and behaviors of persons. Human activity recognition is increasingly used for games, medical, or surveillance. In this paper, we propose a proof-of-concept 2D endless game called Duck Catch & Fit, which implements a detailed activity recognition system that uses a smartphone accelerometer, gyroscope, and magnetometer sensors. The system applies feature extraction and learning mechanism to detect human activities like staying, side movements, and fake side movements. In addition, a voice recognition system is combined to recognize the word "fire" and raise the game's complexity. The results show that it is possible to use machine learning techniques to recognize human activity with high recognition levels. Also, the combination of movement-based and voice-based integrations contributes to a more immersive gameplay.
- Abstract(参考訳): スマートフォンのセンサーは、人の活動や行動に関する情報を提供するのに非常に役立ちます。
人間の行動認識は、ゲーム、医療、監視にますます利用されている。
本稿では,スマートフォン加速度計,ジャイロスコープ,磁気センサを用いた詳細なアクティビティ認識システムを実装した,Duck Catch & Fitと呼ばれる概念実証2Dエンドレスゲームを提案する。
このシステムは特徴抽出と学習機構を適用して、滞在、サイドムーブメント、フェイクサイドムーブメントなどの人間の活動を検出する。
さらに、音声認識システムが組み合わさって「火」という言葉を認識し、ゲームの複雑さを高める。
その結果,機械学習技術を用いて高い認識レベルの人間の活動を認識することが可能であることが示唆された。
また、ムーブメントベースの統合と音声ベースの統合は、より没入的なゲームプレイに寄与する。
関連論文リスト
- Moto: Latent Motion Token as the Bridging Language for Learning Robot Manipulation from Videos [101.26467307473638]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - Human Activity Recognition using Smartphones [0.0]
私たちは、日々の人間の活動を認識し、消費カロリーをリアルタイムで計算するAndroidアプリケーションを作成しました。
これは、メタボリック等価性に基づく式を用いて、リアルタイムな活動認識とカロリー燃焼の計算に使用される。
論文 参考訳(メタデータ) (2024-04-03T17:05:41Z) - Your Day in Your Pocket: Complex Activity Recognition from Smartphone
Accelerometers [7.335712499936904]
本稿では,スマートフォン加速度計データのみを用いた複雑な活動の認識について検討する。
パンデミックの間、私たちは5カ国600人以上のユーザーから収集された大規模なスマートフォンセンシングデータセットを使用しました。
ディープラーニングに基づく8つの複雑なアクティビティのバイナリ分類は、AUROCスコアが部分的にパーソナライズされたモデルで最大0.76に達することで達成できる。
論文 参考訳(メタデータ) (2023-01-17T16:22:30Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Physical Activity Recognition by Utilising Smartphone Sensor Signals [0.0]
本研究では,現代のスマートフォンでジャイロスコープと加速度センサによって記録された計6つの活動に対して,60人の被験者から2日間にわたる人的活動データを収集した。
提案手法は,4つの活動の識別において,98%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-01-20T09:58:52Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Incremental Learning Techniques for Online Human Activity Recognition [0.0]
身体運動のオンライン予測のためのヒューマンアクティビティ認識(HAR)手法を提案する。
我々は,監視ソフトウェアを含むHARシステムと加速度計とジャイロスコープデータを収集するモバイルアプリケーションを開発する。
この研究で6つの漸進的学習アルゴリズムが採用され、オフラインのHARシステムの開発によく使用されるバッチ学習アルゴリズムと比較される。
論文 参考訳(メタデータ) (2021-09-20T11:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。