論文の概要: DeepConvContext: A Multi-Scale Approach to Timeseries Classification in Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2505.20894v1
- Date: Tue, 27 May 2025 08:37:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.521031
- Title: DeepConvContext: A Multi-Scale Approach to Timeseries Classification in Human Activity Recognition
- Title(参考訳): DeepConvContext: 人の行動認識におけるタイムリー分類へのマルチスケールアプローチ
- Authors: Marius Bock, Michael Moeller, Kristof Van Laerhoven,
- Abstract要約: HAR(Human Activity Recognition)のためのマルチスケール時系列分類フレームワークDeepConvContextを提案する。
DeepConvContextは、時間順のウィンドウのシーケンスを処理することによって、ウィンドウ内およびウィンドウ間時間パターンの両方をモデル化する。
6つの広く使用されているHARベンチマークで、DeepConvContextは古典的なDeepConvLSTMよりもF1スコアが平均10%改善され、最大21%向上した。
- 参考スコア(独自算出の注目度): 9.948823510429902
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite recognized limitations in modeling long-range temporal dependencies, Human Activity Recognition (HAR) has traditionally relied on a sliding window approach to segment labeled datasets. Deep learning models like the DeepConvLSTM typically classify each window independently, thereby restricting learnable temporal context to within-window information. To address this constraint, we propose DeepConvContext, a multi-scale time series classification framework for HAR. Drawing inspiration from the vision-based Temporal Action Localization community, DeepConvContext models both intra- and inter-window temporal patterns by processing sequences of time-ordered windows. Unlike recent HAR models that incorporate attention mechanisms, DeepConvContext relies solely on LSTMs -- with ablation studies demonstrating the superior performance of LSTMs over attention-based variants for modeling inertial sensor data. Across six widely-used HAR benchmarks, DeepConvContext achieves an average 10% improvement in F1-score over the classic DeepConvLSTM, with gains of up to 21%. Code to reproduce our experiments is publicly available via github.com/mariusbock/context_har.
- Abstract(参考訳): 長期の時間的依存関係をモデル化する際の制限は認識されているが、ヒューマンアクティビティ認識(HAR)は伝統的に、ラベル付きデータセットのスライディングウインドウアプローチに依存してきた。
DeepConvLSTMのようなディープラーニングモデルは、通常、各ウィンドウを独立して分類し、学習可能な時間コンテキストをウィンドウ内情報に制限する。
この制約に対処するため,HARのマルチスケール時系列分類フレームワークであるDeepConvContextを提案する。
DeepConvContextは、視覚に基づくテンポラルアクションローカライゼーションコミュニティからインスピレーションを得て、時間順ウィンドウのシーケンス処理によって、ウィンドウ内およびウィンドウ間時間パターンの両方をモデル化する。
注意機構を組み込んだ最近のHARモデルとは異なり、DeepConvContextはLSTMのみに依存している。
6つの広く使用されているHARベンチマークで、DeepConvContextは古典的なDeepConvLSTMよりもF1スコアが平均10%改善され、最大21%向上した。
実験を再現するコードはgithub.com/mariusbock/context_harで公開されている。
関連論文リスト
- StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [51.003833566279006]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - WinTSR: A Windowed Temporal Saliency Rescaling Method for Interpreting Time Series Deep Learning Models [0.51795041186793]
我々は、新しい解釈方法、textitWindowed Temporal Saliency Rescaling(WinTSR)を導入する。
我々は、異なるアーキテクチャの5つの最先端ディープラーニングモデルを用いて、WinTSRを10の最近の解釈手法と比較した。
総括分析の結果,WinTSRは他の局所解釈手法よりも性能が優れていた。
論文 参考訳(メタデータ) (2024-12-05T17:15:07Z) - Temporally Consistent Referring Video Object Segmentation with Hybrid Memory [98.80249255577304]
本稿では,参照セグメンテーションとともに時間的一貫性を明示的にモデル化する,エンドツーエンドなR-VOSパラダイムを提案する。
自動生成された高品質の参照マスクを有するフレームの特徴は、残りのフレームをセグメント化するために伝播される。
大規模な実験により,本手法は時間的整合性を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-03-28T13:32:49Z) - Contrastive Continual Multi-view Clustering with Filtered Structural
Fusion [57.193645780552565]
ビューが事前に収集されるアプリケーションでは、マルチビュークラスタリングが成功します。
データビューがシーケンシャルに収集されるシナリオ、すなわちリアルタイムデータを見落としている。
いくつかの方法が提案されているが、安定塑性ジレンマに閉じ込められている。
フィルタ構造融合を用いたコントラスト連続多視点クラスタリングを提案する。
論文 参考訳(メタデータ) (2023-09-26T14:18:29Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。