論文の概要: Using Language Model to Bootstrap Human Activity Recognition Ambient
Sensors Based in Smart Homes
- arxiv url: http://arxiv.org/abs/2111.12158v1
- Date: Tue, 23 Nov 2021 21:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:19:07.677646
- Title: Using Language Model to Bootstrap Human Activity Recognition Ambient
Sensors Based in Smart Homes
- Title(参考訳): スマートホームを用いた言語モデルを用いた人間行動認識環境センサのブートストラップ
- Authors: Damien Bouchabou, Sao Mai Nguyen, Christophe Lohr, Benoit Leduc,
Ioannis Kanellos
- Abstract要約: 本稿では,活動系列分類タスクにおけるLSTMに基づく構造向上のための2つの自然言語処理手法を提案する。
以上の結果から,センサ組織マップなどの有用な情報が得られることが示唆された。
我々のテストでは、埋め込みはターゲットと異なるデータセットで事前トレーニング可能であり、転送学習を可能にしている。
- 参考スコア(独自算出の注目度): 2.336163487623381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long Short Term Memory LSTM-based structures have demonstrated their
efficiency for daily living recognition activities in smart homes by capturing
the order of sensor activations and their temporal dependencies. Nevertheless,
they still fail in dealing with the semantics and the context of the sensors.
More than isolated id and their ordered activation values, sensors also carry
meaning. Indeed, their nature and type of activation can translate various
activities. Their logs are correlated with each other, creating a global
context. We propose to use and compare two Natural Language Processing
embedding methods to enhance LSTM-based structures in activity-sequences
classification tasks: Word2Vec, a static semantic embedding, and ELMo, a
contextualized embedding. Results, on real smart homes datasets, indicate that
this approach provides useful information, such as a sensor organization map,
and makes less confusion between daily activity classes. It helps to better
perform on datasets with competing activities of other residents or pets. Our
tests show also that the embeddings can be pretrained on different datasets
than the target one, enabling transfer learning. We thus demonstrate that
taking into account the context of the sensors and their semantics increases
the classification performances and enables transfer learning.
- Abstract(参考訳): 長期記憶型LSTM構造は, センサアクティベーションの順序と時間依存性を把握し, スマートホームにおける日常生活認識活動の効率化を実証している。
それでも、センサーのセマンティクスやコンテキストを扱うことにはまだ失敗している。
孤立したIDとその順序付けられたアクティベーション値よりも、センサーは意味も持つ。
実際、その性質と活性化の種類は様々な活動を翻訳することができる。
ログは相互に相関し、グローバルなコンテキストを生成する。
本稿では,静的なセマンティックな埋め込みであるWord2Vecと,文脈適応型埋め込みであるELMoの2つの自然言語処理埋め込み手法を用いて,活動系列の分類タスクにおけるLSTMに基づく構造を強化することを提案する。
その結果、実際のスマートホームデータセットでは、このアプローチがセンサー組織マップのような有用な情報を提供し、日々のアクティビティクラス間の混乱を少なくすることを示している。
他の住民やペットと競合する活動でデータセットのパフォーマンスを改善するのに役立つ。
私たちのテストでは、埋め込みはターゲットと異なるデータセットで事前トレーニングが可能で、転送学習が可能であることも示しています。
したがって,センサの文脈と意味を考慮すれば分類性能が向上し,転送学習が可能となる。
関連論文リスト
- Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - Cross-Domain HAR: Few Shot Transfer Learning for Human Activity
Recognition [0.2944538605197902]
本稿では,HARデータセットを有効な転送学習に利用するための経済的なアプローチを提案する。
本稿では,教師が学習する自己学習パラダイムに則って,新たな伝達学習フレームワークであるクロスドメインHARを紹介する。
本手法の有効性を,撮影活動認識のシナリオで実証する。
論文 参考訳(メタデータ) (2023-10-22T19:13:25Z) - From Isolated Islands to Pangea: Unifying Semantic Space for Human
Action Understanding [51.9125449949175]
行動理解は知的エージェントにとって重要であり、長期的な注目を集めている。
伝統的に、研究者はクラスを定義し、ベンチマークのエンベロープをそれぞれプッシュするために、慣用的な選択に従ってアクションデータセットを構築した。
そこで本研究では,Pangeaを完全に活用するために,物理空間から意味空間への新たなモデルマッピングを提案する。
論文 参考訳(メタデータ) (2023-04-02T15:04:43Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - CHARM: A Hierarchical Deep Learning Model for Classification of Complex
Human Activities Using Motion Sensors [0.9594432031144714]
CHARMは、モーションセンサーを用いた複雑な人間の活動の分類のための階層的なディープラーニングモデルである。
これは、平均精度とF1スコアの点で、最先端のアクティビティ認識のための最先端の教師付き学習アプローチよりも優れています。
ハイレベルなアクティビティラベルのみを使用してトレーニングされた場合、低レベルなユーザアクティビティを学習する能力は、HARタスクの半教師付き学習の道を開く可能性がある。
論文 参考訳(メタデータ) (2022-07-16T01:36:54Z) - Human Activity Recognition using Attribute-Based Neural Networks and
Context Information [61.67246055629366]
手作業におけるウェアラブルセンサデータから人間の活動認識(HAR)を考察する。
我々は、コンテキスト情報をディープニューラルネットワークベースのHARシステムに体系的に組み込む方法を示す。
提案したアーキテクチャは,最先端手法と比較してHAR性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-28T06:08:25Z) - Learning Asynchronous and Sparse Human-Object Interaction in Videos [56.73059840294019]
Asynchronous-Sparse Interaction Graph Networks(ASSIGN)は、ビデオシーン内のエンティティに関連するインタラクションイベントの構造を自動的に検出します。
ASSIGNは人間と物体の相互作用認識において試験され、人間のサブアクティビティのセグメンテーションおよびラベル付けにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-03T23:43:55Z) - Contrastive Predictive Coding for Human Activity Recognition [5.766384728949437]
本研究では,センサデータストリームの長期的時間構造をキャプチャする人間行動認識にContrastive Predictive Codingフレームワークを導入する。
CPCベースの事前学習は自己管理され、その結果得られた表現は標準のアクティビティチェーンに統合できる。
少量のラベル付きトレーニングデータしか利用できない場合、認識性能が大幅に向上します。
論文 参考訳(メタデータ) (2020-12-09T21:44:36Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - Sequential Weakly Labeled Multi-Activity Localization and Recognition on
Wearable Sensors using Recurrent Attention Networks [13.64024154785943]
本稿では,逐次的にラベル付けされたマルチアクティビティ認識と位置情報タスクを処理するために,RAN(Recurrent attention network)を提案する。
我々のRANモデルは、粗粒度シーケンシャルな弱いラベルからマルチアクティビティータイプを同時に推測することができる。
手動ラベリングの負担を大幅に軽減する。
論文 参考訳(メタデータ) (2020-04-13T04:57:09Z) - ActiLabel: A Combinatorial Transfer Learning Framework for Activity
Recognition [14.605223647792862]
ActiLabelは任意のドメインのイベントと異なるドメインのイベントの間の構造的類似性を学ぶフレームワークである。
3つの公開データセットに基づく実験は、最先端のトランスファー学習やディープラーニング手法よりもActiLabelの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-03-16T19:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。