論文の概要: Information We Can Extract About a User From 'One Minute Mobile
Application Usage'
- arxiv url: http://arxiv.org/abs/2207.13222v2
- Date: Tue, 9 Aug 2022 00:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:10:06.609065
- Title: Information We Can Extract About a User From 'One Minute Mobile
Application Usage'
- Title(参考訳): 一分間のモバイルアプリ利用」からユーザ情報を抽出できる
- Authors: Sarwan Ali
- Abstract要約: 本稿では,アンドロイドスマートフォンの加速度計,磁力計,ジャイロセンサを用いて,さまざまな人間の活動を抽出した。
Facebook、Instagram、Whatsapp、Twitterなど、さまざまなソーシャルメディアアプリケーションを使用して、19ドルの被験者の属性とともに、生のセンサー値を抽出しました。
生信号から特徴を抽出し、異なる機械学習(ML)アルゴリズムを用いて分類を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding human behavior is an important task and has applications in
many domains such as targeted advertisement, health analytics, security, and
entertainment, etc. For this purpose, designing a system for activity
recognition (AR) is important. However, since every human can have different
behaviors, understanding and analyzing common patterns become a challenging
task. Since smartphones are easily available to every human being in the modern
world, using them to track the human activities becomes possible. In this
paper, we extracted different human activities using accelerometer,
magnetometer, and gyroscope sensors of android smartphones by building an
android mobile applications. Using different social media applications, such as
Facebook, Instagram, Whatsapp, and Twitter, we extracted the raw sensor values
along with the attributes of $29$ subjects along with their attributes (class
labels) such as age, gender, and left/right/both hands application usage. We
extract features from the raw signals and use them to perform classification
using different machine learning (ML) algorithms. Using statistical analysis,
we show the importance of different features towards the prediction of class
labels. In the end, we use the trained ML model on our data to extract unknown
features from a well known activity recognition data from UCI repository, which
highlights the potential of privacy breach using ML models. This security
analysis could help researchers in future to take appropriate steps to preserve
the privacy of human subjects.
- Abstract(参考訳): 人間の行動を理解することは重要なタスクであり、ターゲット広告、健康分析、セキュリティ、エンタテイメントなど多くの分野に応用されている。
この目的のために,活動認識システム(AR)の設計が重要である。
しかし、人間はみな異なる行動をとることができるため、共通パターンの理解と分析は難しい課題となる。
スマートフォンは現代社会のすべての人間に容易に利用でき、それらを使って人間の活動を追跡することができる。
本稿では,android スマートフォンの加速度センサ,磁力計,ジャイロスコープセンサを用いて,android モバイルアプリケーションの構築により,さまざまな動作を抽出した。
facebook、instagram、whatsapp、twitterといった異なるソーシャルメディアアプリケーションを使用して、29ドルのサブジェクトの属性と年齢、性別、左/右/両手のアプリケーション利用といった属性(クラスラベル)とともに、生のセンサー値を取り出しました。
生信号から特徴を抽出し、異なる機械学習(ML)アルゴリズムを用いて分類を行う。
統計的分析を用いて,クラスラベルの予測における異なる特徴の重要性を示す。
最終的に、トレーニングされたMLモデルを使用して、UCIリポジトリからよく知られたアクティビティ認識データから未知の特徴を抽出し、MLモデルを使用したプライバシー侵害の可能性を強調します。
このセキュリティ分析は、将来の研究者が人間のプライバシーを守るための適切な手順を取るのに役立つかもしれない。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Human Activity Recognition using Smartphones [0.0]
私たちは、日々の人間の活動を認識し、消費カロリーをリアルタイムで計算するAndroidアプリケーションを作成しました。
これは、メタボリック等価性に基づく式を用いて、リアルタイムな活動認識とカロリー燃焼の計算に使用される。
論文 参考訳(メタデータ) (2024-04-03T17:05:41Z) - Multi-Channel Time-Series Person and Soft-Biometric Identification [65.83256210066787]
本研究は, 深層建築を用いて異なる活動を行う人間の記録から, 個人とソフトバイオメトリックスを同定する。
マルチチャネル時系列ヒューマンアクティビティ認識(HAR)の4つのデータセットに対する手法の評価を行った。
ソフトバイオメトリクスに基づく属性表現は、有望な結果を示し、より大きなデータセットの必要性を強調している。
論文 参考訳(メタデータ) (2023-04-04T07:24:51Z) - Your Day in Your Pocket: Complex Activity Recognition from Smartphone
Accelerometers [7.335712499936904]
本稿では,スマートフォン加速度計データのみを用いた複雑な活動の認識について検討する。
パンデミックの間、私たちは5カ国600人以上のユーザーから収集された大規模なスマートフォンセンシングデータセットを使用しました。
ディープラーニングに基づく8つの複雑なアクティビティのバイナリ分類は、AUROCスコアが部分的にパーソナライズされたモデルで最大0.76に達することで達成できる。
論文 参考訳(メタデータ) (2023-01-17T16:22:30Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - HAR-GCNN: Deep Graph CNNs for Human Activity Recognition From Highly
Unlabeled Mobile Sensor Data [61.79595926825511]
正確な活動ラベルを含むバランスのとれたデータセットを取得するには、人間が正しく注釈を付け、リアルタイムで被験者の通常の活動に干渉する必要がある。
本研究では,HAR-GCCNモデルを提案する。HAR-GCCNは,時系列に隣接したセンサ測定の相関を利用して,不特定活動の正確なラベルを予測する。
Har-GCCNは、これまで使用されていたベースライン手法と比較して優れたパフォーマンスを示し、分類精度を25%改善し、異なるデータセットで最大68%向上した。
論文 参考訳(メタデータ) (2022-03-07T01:23:46Z) - Human Activity Recognition models using Limited Consumer Device Sensors
and Machine Learning [0.0]
ヒトの活動認識は、日常生活や医療環境における応用の増加とともに人気が高まっている。
本稿では,スマートフォンやスマートウォッチのセンサデータを用いた訓練に限定した各種モデルの発見について述べる。
結果は、スマートフォンとスマートウォッチのみから収集された限られたセンサーデータと、従来の機械学習の概念とアルゴリズムとを厳格に併用したモデルの可能性を示している。
論文 参考訳(メタデータ) (2022-01-21T06:54:05Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Human Activity Analysis and Recognition from Smartphones using Machine
Learning Techniques [0.0]
人間の活動認識(HAR)は、過去数十年で貴重な研究トピックと考えられています。
本稿では、機械学習モデルを用いてデータを分析し、人間の活動を認識する。
論文 参考訳(メタデータ) (2021-03-30T16:46:40Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。