論文の概要: Adversarial Deep Feature Extraction Network for User Independent Human
Activity Recognition
- arxiv url: http://arxiv.org/abs/2110.12163v1
- Date: Sat, 23 Oct 2021 07:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:37:14.161299
- Title: Adversarial Deep Feature Extraction Network for User Independent Human
Activity Recognition
- Title(参考訳): ユーザ独立型ヒューマンアクティビティ認識のためのadversarial deep feature extraction network
- Authors: Sungho Suh, Vitor Fortes Rey, Paul Lukowicz
- Abstract要約: 本稿では,人間行動認識のための最大平均不一致(MMD)正則化を用いた対向的対象非依存特徴抽出法を提案する。
本手法は,ユーザに依存しない性能を著しく向上し,結果のばらつきを低減できることを示す,よく知られた公開データセット上での評価を行う。
- 参考スコア(独自算出の注目度): 4.988898367111902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User dependence remains one of the most difficult general problems in Human
Activity Recognition (HAR), in particular when using wearable sensors. This is
due to the huge variability of the way different people execute even the
simplest actions. In addition, detailed sensor fixtures and placement will be
different for different people or even at different times for the same users.
In theory, the problem can be solved by a large enough data set. However,
recording data sets that capture the entire diversity of complex activity sets
is seldom practicable. Instead, models are needed that focus on features that
are invariant across users. To this end, we present an adversarial
subject-independent feature extraction method with the maximum mean discrepancy
(MMD) regularization for human activity recognition. The proposed model is
capable of learning a subject-independent embedding feature representation from
multiple subjects datasets and generalizing it to unseen target subjects. The
proposed network is based on the adversarial encoder-decoder structure with the
MMD realign the data distribution over multiple subjects. Experimental results
show that the proposed method not only outperforms state-of-the-art methods
over the four real-world datasets but also improves the subject generalization
effectively. We evaluate the method on well-known public data sets showing that
it significantly improves user-independent performance and reduces variance in
results.
- Abstract(参考訳): ユーザ依存は、特にウェアラブルセンサーを使用する場合、人間のアクティビティ認識(har)において最も難しい一般的な問題の1つです。
これは、異なる人々が最も単純なアクションを実行する方法の巨大な変動のためです。
さらに、詳細なセンサーのフィクスチャや配置は、人によっても、同じユーザーのために異なるタイミングでも異なる。
理論的には、この問題は十分大きなデータセットによって解決できる。
しかし、複雑なアクティビティセットの全多様性をキャプチャするデータセットは、ほとんど実践できない。
代わりに、ユーザー間で不変な機能にフォーカスするモデルが必要である。
この目的のために,人間活動認識のための最大平均不一致(MMD)正則化を用いた対向的対象非依存特徴抽出法を提案する。
提案モデルは,複数の対象データセットから対象非依存の埋め込み特徴表現を学習し,対象対象に一般化することができる。
提案するネットワークは,MDDを用いた逆エンコーダ・デコーダ構造に基づいて,複数の主題にまたがるデータ分散を実現する。
実験の結果,提案手法は4つの実世界のデータセットに対して最先端の手法より優れるだけでなく,対象の一般化を効果的に改善することがわかった。
本研究では,ユーザに依存しない性能を著しく向上し,結果のばらつきを低減できることを示す。
関連論文リスト
- Towards Understanding Human Emotional Fluctuations with Sparse Check-In Data [2.8623940003518156]
データスパシティは、さまざまなドメインにわたるAIツールのパワーを制限する重要な課題である。
本稿では,ユーザ中心のフィードバックに基づく学習を統合する新しい確率的フレームワークを提案する。
64のオプションの中で、ユーザの状態を6割の精度で予測できる。
論文 参考訳(メタデータ) (2024-09-10T21:00:33Z) - DCID: Deep Canonical Information Decomposition [84.59396326810085]
本稿では,2つの1次元目標変数間で共有される信号の同定について考察する。
そこで本研究では,地中トラスラベルの存在下で使用可能な評価指標であるICMを提案する。
また、共有変数を学習するための単純かつ効果的なアプローチとして、Deep Canonical Information Decomposition (DCID)を提案する。
論文 参考訳(メタデータ) (2023-06-27T16:59:06Z) - Combining Public Human Activity Recognition Datasets to Mitigate Labeled
Data Scarcity [1.274578243851308]
本稿では,一般公開されたデータセットと一般化されたHARモデルを学習するための新たな戦略を提案する。
我々の実験評価は、さまざまな最先端ニューラルネットワークアーキテクチャの実験を含むもので、公開データセットを組み合わせることで、ラベル付きサンプルの数を著しく削減できることを示している。
論文 参考訳(メタデータ) (2023-06-23T18:51:22Z) - Leveraging sparse and shared feature activations for disentangled
representation learning [112.22699167017471]
本稿では,教師付きタスクの多種多様な集合から抽出した知識を活用し,共通不整合表現を学習することを提案する。
我々は6つの実世界分布シフトベンチマークと異なるデータモダリティに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-04-17T01:33:24Z) - Multiple Instance Learning for Detecting Anomalies over Sequential
Real-World Datasets [2.427831679672374]
MIL(Multiple Instance Learning)は、トレーニングデータセットにおけるラベルの不完全な知識に関する問題に対して有効であることが示されている。
MILに基づく定式化と,異なる設計決定に基づいて,このフレームワークの様々なアルゴリズムのインスタンス化を提案する。
このフレームワークは、さまざまな現実世界のアプリケーションドメインから生じる多様なデータセットをうまく一般化する。
論文 参考訳(メタデータ) (2022-10-04T16:02:09Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - TASKED: Transformer-based Adversarial learning for human activity
recognition using wearable sensors via Self-KnowledgE Distillation [6.458496335718508]
本稿では,TASKED(Self-KnowledgE Distillation)を用いたウェアラブルセンサを用いた,トランスフォーマーに基づく人間行動認識のための新しい逆学習フレームワークを提案する。
提案手法では,教師なしの自己知識蒸留を採用し,訓練手順の安定性と人間の活動認識性能を向上させる。
論文 参考訳(メタデータ) (2022-09-14T11:08:48Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - Multi-Domain Adversarial Feature Generalization for Person
Re-Identification [52.835955258959785]
マルチデータセット特徴一般化ネットワーク(MMFA-AAE)を提案する。
複数のラベル付きデータセットから普遍的なドメイン不変の特徴表現を学習し、それを見えないカメラシステムに一般化することができる。
また、最先端の教師付き手法や教師なしのドメイン適応手法を大きなマージンで超えている。
論文 参考訳(メタデータ) (2020-11-25T08:03:15Z) - DomainMix: Learning Generalizable Person Re-Identification Without Human
Annotations [89.78473564527688]
本稿では,ラベル付き合成データセットとラベル付き実世界のデータセットを用いてユニバーサルモデルをトレーニングする方法を示す。
このように、人間のアノテーションはもはや不要であり、大規模で多様な現実世界のデータセットにスケーラブルである。
実験結果から,提案手法は完全な人間のアノテーションで訓練されたアノテーションとほぼ同等であることがわかった。
論文 参考訳(メタデータ) (2020-11-24T08:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。