論文の概要: Your Day in Your Pocket: Complex Activity Recognition from Smartphone
Accelerometers
- arxiv url: http://arxiv.org/abs/2301.06993v1
- Date: Tue, 17 Jan 2023 16:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 13:32:38.879053
- Title: Your Day in Your Pocket: Complex Activity Recognition from Smartphone
Accelerometers
- Title(参考訳): ポケットの中のあなたの日:スマートフォン加速度計による複雑なアクティビティ認識
- Authors: Emma Bouton--Bessac, Lakmal Meegahapola, Daniel Gatica-Perez
- Abstract要約: 本稿では,スマートフォン加速度計データのみを用いた複雑な活動の認識について検討する。
パンデミックの間、私たちは5カ国600人以上のユーザーから収集された大規模なスマートフォンセンシングデータセットを使用しました。
ディープラーニングに基づく8つの複雑なアクティビティのバイナリ分類は、AUROCスコアが部分的にパーソナライズされたモデルで最大0.76に達することで達成できる。
- 参考スコア(独自算出の注目度): 7.335712499936904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human Activity Recognition (HAR) enables context-aware user experiences where
mobile apps can alter content and interactions depending on user activities.
Hence, smartphones have become valuable for HAR as they allow large, and
diversified data collection. Although previous work in HAR managed to detect
simple activities (i.e., sitting, walking, running) with good accuracy using
inertial sensors (i.e., accelerometer), the recognition of complex daily
activities remains an open problem, specially in remote work/study settings
when people are more sedentary. Moreover, understanding the everyday activities
of a person can support the creation of applications that aim to support their
well-being. This paper investigates the recognition of complex activities
exclusively using smartphone accelerometer data. We used a large smartphone
sensing dataset collected from over 600 users in five countries during the
pandemic and showed that deep learning-based, binary classification of eight
complex activities (sleeping, eating, watching videos, online communication,
attending a lecture, sports, shopping, studying) can be achieved with AUROC
scores up to 0.76 with partially personalized models. This shows encouraging
signs toward assessing complex activities only using phone accelerometer data
in the post-pandemic world.
- Abstract(参考訳): HAR(Human Activity Recognition)は,モバイルアプリがユーザアクティビティに応じてコンテンツやインタラクションを変更可能な,コンテキスト対応のユーザエクスペリエンスを実現する。
したがって、スマートフォンは大規模で多様なデータ収集を可能にするため、HARにとって価値のあるものになっている。
HARにおける以前の研究は、慣性センサー(加速度計)を用いて、簡単な活動(例えば、座ったり、歩いたり、走ったり)を精度良く検出することに成功したが、複雑な日常的な活動の認識は、特に人がより鎮静的なリモートワークやスタディ環境では未解決の問題のままである。
さらに、人の日常的な活動を理解することは、幸福をサポートするアプリケーションの作成を支援することができる。
本稿では,スマートフォン加速度計データを用いた複雑な活動の認識について検討する。
パンデミック中に5カ国の600人を超えるユーザから収集した大規模スマートフォンセンシングデータセットを用いて,8つの複雑なアクティビティ(睡眠,食事,ビデオの視聴,オンラインコミュニケーション,講義,スポーツ,ショッピング,学習)のディープラーニングに基づくバイナリ分類を,部分的にパーソナライズされたモデルで0.76までのaurocスコアで達成可能であることを示した。
これは、パンデミック後の世界の電話加速度計データのみを使用して複雑な活動を評価するための兆候を示す。
関連論文リスト
- Complex Daily Activities, Country-Level Diversity, and Smartphone
Sensing: A Study in Denmark, Italy, Mongolia, Paraguay, and UK [6.52702503779308]
スマートフォンは、人々の日常生活を支援するために、行動認識による人間の行動を理解することができる。
人々は、リモート/ハイブリッドワーク/スタディ設定の頻度で、ポストパンデミックな世界でより鎮静的です。
5か国637人の大学生のスマートフォンデータと216万件の自己申告データを分析した。
論文 参考訳(メタデータ) (2023-02-16T21:34:55Z) - Towards Continual Egocentric Activity Recognition: A Multi-modal
Egocentric Activity Dataset for Continual Learning [21.68009790164824]
UESTC-MMEA-CLという連続学習のためのマルチモーダル・エゴセントリックな活動データセットを提案する。
ビデオ、加速度計、ジャイロスコープの同期データを含み、32種類の日常活動が10人の参加者によって行われる。
RGB, 加速度, ジャイロスコープの3つのモードを別々に使用した場合に, エゴセントリックな活動認識の結果が報告される。
論文 参考訳(メタデータ) (2023-01-26T04:32:00Z) - FLAG3D: A 3D Fitness Activity Dataset with Language Instruction [89.60371681477791]
FLAG3Dは,60カテゴリの180Kシーケンスを含む言語命令付き大規模3Dフィットネスアクティビティデータセットである。
FLAG3Dは、クロスドメインなヒューマンアクション認識、動的ヒューマンメッシュリカバリ、言語誘導型ヒューマンアクション生成など、さまざまな課題に対して大きな研究価値を提供する。
論文 参考訳(メタデータ) (2022-12-09T02:33:33Z) - Information We Can Extract About a User From 'One Minute Mobile
Application Usage' [0.0]
本稿では,アンドロイドスマートフォンの加速度計,磁力計,ジャイロセンサを用いて,さまざまな人間の活動を抽出した。
Facebook、Instagram、Whatsapp、Twitterなど、さまざまなソーシャルメディアアプリケーションを使用して、19ドルの被験者の属性とともに、生のセンサー値を抽出しました。
生信号から特徴を抽出し、異なる機械学習(ML)アルゴリズムを用いて分類を行う。
論文 参考訳(メタデータ) (2022-07-27T00:23:11Z) - Human Activity Recognition on Time Series Accelerometer Sensor Data
using LSTM Recurrent Neural Networks [0.2294014185517203]
本研究では,スマートウォッチの加速度センサを用いて食行動を認識することに焦点を当てた。
ピザを食べながら10人の被験者からセンサデータを収集した。
LSTM-ANNアーキテクチャは,パフ,薬物服用,ジョギング活動と比較して90%の成功率を示した。
論文 参考訳(メタデータ) (2022-06-03T19:24:20Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Physical Activity Recognition by Utilising Smartphone Sensor Signals [0.0]
本研究では,現代のスマートフォンでジャイロスコープと加速度センサによって記録された計6つの活動に対して,60人の被験者から2日間にわたる人的活動データを収集した。
提案手法は,4つの活動の識別において,98%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-01-20T09:58:52Z) - The Second-Level Smartphone Divide: A Typology of Smartphone Usage Based
on Frequency of Use, Skills, and Types of Activities [77.34726150561087]
本稿は,2016年から2020年にかけてドイツとオーストリアで収集されたスマートフォン所有者の5つのサンプルに基づいて,スマートフォン技術の利用の不平等について検討する。
スマートフォン利用頻度、自己評価のスマートフォンスキル、スマートフォン上で行われている活動に基づいて、個人を分類する潜在クラス分析を行うことにより、スマートフォン利用者の6つの異なるタイプを識別する。
論文 参考訳(メタデータ) (2021-11-09T13:38:59Z) - Tutorial on Deep Learning for Human Activity Recognition [70.94062293989832]
このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)で初めて開催された。
これは、人間のアクティビティを深く学習する上で、データパイプラインにおける最も重要なステップの、ハンズオンでインタラクティブなウォークスルーを提供する。
論文 参考訳(メタデータ) (2021-10-13T12:01:02Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。