論文の概要: Using Language Model to Bootstrap Human Activity Recognition Ambient
Sensors Based in Smart Homes
- arxiv url: http://arxiv.org/abs/2111.12158v1
- Date: Tue, 23 Nov 2021 21:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:19:07.677646
- Title: Using Language Model to Bootstrap Human Activity Recognition Ambient
Sensors Based in Smart Homes
- Title(参考訳): スマートホームを用いた言語モデルを用いた人間行動認識環境センサのブートストラップ
- Authors: Damien Bouchabou, Sao Mai Nguyen, Christophe Lohr, Benoit Leduc,
Ioannis Kanellos
- Abstract要約: 本稿では,活動系列分類タスクにおけるLSTMに基づく構造向上のための2つの自然言語処理手法を提案する。
以上の結果から,センサ組織マップなどの有用な情報が得られることが示唆された。
我々のテストでは、埋め込みはターゲットと異なるデータセットで事前トレーニング可能であり、転送学習を可能にしている。
- 参考スコア(独自算出の注目度): 2.336163487623381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long Short Term Memory LSTM-based structures have demonstrated their
efficiency for daily living recognition activities in smart homes by capturing
the order of sensor activations and their temporal dependencies. Nevertheless,
they still fail in dealing with the semantics and the context of the sensors.
More than isolated id and their ordered activation values, sensors also carry
meaning. Indeed, their nature and type of activation can translate various
activities. Their logs are correlated with each other, creating a global
context. We propose to use and compare two Natural Language Processing
embedding methods to enhance LSTM-based structures in activity-sequences
classification tasks: Word2Vec, a static semantic embedding, and ELMo, a
contextualized embedding. Results, on real smart homes datasets, indicate that
this approach provides useful information, such as a sensor organization map,
and makes less confusion between daily activity classes. It helps to better
perform on datasets with competing activities of other residents or pets. Our
tests show also that the embeddings can be pretrained on different datasets
than the target one, enabling transfer learning. We thus demonstrate that
taking into account the context of the sensors and their semantics increases
the classification performances and enables transfer learning.
- Abstract(参考訳): 長期記憶型LSTM構造は, センサアクティベーションの順序と時間依存性を把握し, スマートホームにおける日常生活認識活動の効率化を実証している。
それでも、センサーのセマンティクスやコンテキストを扱うことにはまだ失敗している。
孤立したIDとその順序付けられたアクティベーション値よりも、センサーは意味も持つ。
実際、その性質と活性化の種類は様々な活動を翻訳することができる。
ログは相互に相関し、グローバルなコンテキストを生成する。
本稿では,静的なセマンティックな埋め込みであるWord2Vecと,文脈適応型埋め込みであるELMoの2つの自然言語処理埋め込み手法を用いて,活動系列の分類タスクにおけるLSTMに基づく構造を強化することを提案する。
その結果、実際のスマートホームデータセットでは、このアプローチがセンサー組織マップのような有用な情報を提供し、日々のアクティビティクラス間の混乱を少なくすることを示している。
他の住民やペットと競合する活動でデータセットのパフォーマンスを改善するのに役立つ。
私たちのテストでは、埋め込みはターゲットと異なるデータセットで事前トレーニングが可能で、転送学習が可能であることも示しています。
したがって,センサの文脈と意味を考慮すれば分類性能が向上し,転送学習が可能となる。
関連論文リスト
- Language-centered Human Activity Recognition [8.925867647929088]
Inertial Measurement Unit(IMU)センサーを用いたHAR(Human Activity Recognition)は、医療、安全、産業生産における応用において重要である。
アクティビティパターン、デバイスタイプ、センサー配置のバリエーションは、データセット間の分散ギャップを生成する。
本稿では,センサの読み書きとアクティビティラベルのセマンティック解釈を生成するシステムであるLanHARを提案する。
論文 参考訳(メタデータ) (2024-09-12T22:57:29Z) - Consistency Based Weakly Self-Supervised Learning for Human Activity Recognition with Wearables [1.565361244756411]
センサデータから人間の活動を認識するための弱自己教師型アプローチについて述べる。
提案手法は, クラスタリングアルゴリズムが, 基礎となる人間の行動を特定し, 分類する上で, 同等のパフォーマンスを達成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-07-29T06:29:21Z) - Layout Agnostic Human Activity Recognition in Smart Homes through Textual Descriptions Of Sensor Triggers (TDOST) [0.22354214294493352]
スマートホームにおけるヒューマンアクティビティ認識(HAR)システムのためのレイアウトに依存しないモデリング手法を開発した。
我々は、周囲のトリガー条件をカプセル化するセンサートリガーのテキスト記述(TDOST)を生成する。
我々は、ベンチマークしたCASASデータセットの実験を通して、見知らぬスマートホームにおけるTDOSTベースのモデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-20T20:37:44Z) - Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - CHARM: A Hierarchical Deep Learning Model for Classification of Complex
Human Activities Using Motion Sensors [0.9594432031144714]
CHARMは、モーションセンサーを用いた複雑な人間の活動の分類のための階層的なディープラーニングモデルである。
これは、平均精度とF1スコアの点で、最先端のアクティビティ認識のための最先端の教師付き学習アプローチよりも優れています。
ハイレベルなアクティビティラベルのみを使用してトレーニングされた場合、低レベルなユーザアクティビティを学習する能力は、HARタスクの半教師付き学習の道を開く可能性がある。
論文 参考訳(メタデータ) (2022-07-16T01:36:54Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - Human Activity Recognition using Attribute-Based Neural Networks and
Context Information [61.67246055629366]
手作業におけるウェアラブルセンサデータから人間の活動認識(HAR)を考察する。
我々は、コンテキスト情報をディープニューラルネットワークベースのHARシステムに体系的に組み込む方法を示す。
提案したアーキテクチャは,最先端手法と比較してHAR性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-28T06:08:25Z) - Learning Asynchronous and Sparse Human-Object Interaction in Videos [56.73059840294019]
Asynchronous-Sparse Interaction Graph Networks(ASSIGN)は、ビデオシーン内のエンティティに関連するインタラクションイベントの構造を自動的に検出します。
ASSIGNは人間と物体の相互作用認識において試験され、人間のサブアクティビティのセグメンテーションおよびラベル付けにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-03T23:43:55Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - ActiLabel: A Combinatorial Transfer Learning Framework for Activity
Recognition [14.605223647792862]
ActiLabelは任意のドメインのイベントと異なるドメインのイベントの間の構造的類似性を学ぶフレームワークである。
3つの公開データセットに基づく実験は、最先端のトランスファー学習やディープラーニング手法よりもActiLabelの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-03-16T19:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。