論文の概要: Are Accelerometers for Activity Recognition a Dead-end?
- arxiv url: http://arxiv.org/abs/2001.08111v2
- Date: Thu, 30 Jan 2020 10:51:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:50:10.966093
- Title: Are Accelerometers for Activity Recognition a Dead-end?
- Title(参考訳): アクティビティ認識のための加速度計はデッドエンドか?
- Authors: Catherine Tong, Shyam A. Tailor, Nicholas D. Lane
- Abstract要約: 我々は、加速度計の代わりに画像センサを人間の活動認識のデフォルトセンサーとして採用する。
我々の研究は加速度計から離れる必要性を強調し、活動認識にイメージラーを使うことをさらに探究することを求めている。
- 参考スコア(独自算出の注目度): 11.22336860673884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accelerometer-based (and by extension other inertial sensors) research for
Human Activity Recognition (HAR) is a dead-end. This sensor does not offer
enough information for us to progress in the core domain of HAR - to recognize
everyday activities from sensor data. Despite continued and prolonged efforts
in improving feature engineering and machine learning models, the activities
that we can recognize reliably have only expanded slightly and many of the same
flaws of early models are still present today. Instead of relying on
acceleration data, we should instead consider modalities with much richer
information - a logical choice are images. With the rapid advance in image
sensing hardware and modelling techniques, we believe that a widespread
adoption of image sensors will open many opportunities for accurate and robust
inference across a wide spectrum of human activities.
In this paper, we make the case for imagers in place of accelerometers as the
default sensor for human activity recognition. Our review of past works has led
to the observation that progress in HAR had stalled, caused by our reliance on
accelerometers. We further argue for the suitability of images for activity
recognition by illustrating their richness of information and the marked
progress in computer vision. Through a feasibility analysis, we find that
deploying imagers and CNNs on device poses no substantial burden on modern
mobile hardware. Overall, our work highlights the need to move away from
accelerometers and calls for further exploration of using imagers for activity
recognition.
- Abstract(参考訳): 加速度計ベースの(そして他の慣性センサーによる)人間活動認識の研究(har)は行き詰まりだ。
このセンサは、センサーデータから日々のアクティビティを認識するために、HARのコアドメインを前進させる十分な情報を提供していません。
機能工学と機械学習モデルの改善に長く取り組んできたにもかかわらず、確実に認識できる活動はわずかに拡大し、初期のモデルと同じ欠陥の多くが現在も残っている。
加速度データに頼る代わりに、よりリッチな情報を持つモダリティを考えるべきです。
画像センシングハードウェアとモデリング技術の急速な進歩により、画像センサが広く普及すれば、さまざまな人間の活動にまたがって、正確で堅牢な推論の機会が生まれると信じています。
本稿では,人間の行動認識のデフォルトセンサとして加速度計の代わりに撮像器を用いる。
過去の研究を振り返ると,加速度計への依存が原因で,HARの進歩は停滞していた。
さらに,情報量の豊富さとコンピュータビジョンの著しい進歩を図示することで,活動認識のための画像の適合性についても論じる。
実現可能性分析により、デバイスにイメージとCNNをデプロイすることは、現代のモバイルハードウェアに重大な負担を与えないことがわかった。
全体として、私たちの研究は加速度計から離れる必要性を強調し、アクティビティ認識に画像認識を使用するさらなる調査を呼びかけています。
関連論文リスト
- Radar-Based Recognition of Static Hand Gestures in American Sign
Language [17.021656590925005]
本研究では,先進レーダ線トレーシングシミュレータによる合成データの有効性について検討した。
シミュレータは直感的な材料モデルを採用し、データ多様性を導入するように調整することができる。
NNを合成データで専用にトレーニングしているにもかかわらず、実際の測定データでテストを行うと、有望な性能を示す。
論文 参考訳(メタデータ) (2024-02-20T08:19:30Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Physical Activity Recognition by Utilising Smartphone Sensor Signals [0.0]
本研究では,現代のスマートフォンでジャイロスコープと加速度センサによって記録された計6つの活動に対して,60人の被験者から2日間にわたる人的活動データを収集した。
提案手法は,4つの活動の識別において,98%の分類精度を達成した。
論文 参考訳(メタデータ) (2022-01-20T09:58:52Z) - Classifying Human Activities with Inertial Sensors: A Machine Learning
Approach [0.0]
HAR(Human Activity Recognition)は、現在進行中の研究課題である。
医療サポート、スポーツ、フィットネス、ソーシャルネットワーキング、ヒューマン・コンピュータ・インタフェース、シニア・ケア、エンターテイメント、監視などの分野に応用されている。
スマートフォンの慣性センサデータを用いて,人間活動認識のための機械学習と深層学習のアプローチを検討した。
論文 参考訳(メタデータ) (2021-11-09T08:17:33Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Human Activity Recognition using Deep Learning Models on Smartphones and
Smartwatches Sensor Data [0.0]
We use the popular WISDM dataset for activity recognition。
スマートフォンやスマートウォッチは、着ている場所によって、同じ方法でデータをキャプチャしません。
論文 参考訳(メタデータ) (2021-02-28T06:49:52Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - IMUTube: Automatic Extraction of Virtual on-body Accelerometry from
Video for Human Activity Recognition [12.91206329972949]
IMUTubeは、人間の活動の映像をIMUデータの仮想ストリームに変換する自動処理パイプラインである。
これらの仮想IMUストリームは、人体の様々な場所で加速度計を表現している。
本稿では,実際のIMUデータにより,既知のHARデータセット上での各種モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-29T21:50:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。