論文の概要: Optimization-Free Test-Time Adaptation for Cross-Person Activity
Recognition
- arxiv url: http://arxiv.org/abs/2310.18562v2
- Date: Wed, 7 Feb 2024 08:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 19:46:10.701603
- Title: Optimization-Free Test-Time Adaptation for Cross-Person Activity
Recognition
- Title(参考訳): クロスパーソン活動認識のためのテスト時間最適化
- Authors: Shuoyuan Wang, Jindong Wang, HuaJun Xi, Bob Zhang, Lei Zhang, Hongxin
Wei
- Abstract要約: Test-Time Adaptationは、テストストリームを使用して、リアルタイムの推論で予測を調整することを目的としている。
計算コストが高いため、リソース制約のあるエッジデバイス上での動作が困難になる。
センサベースHARのための最適化自由テスト時間適応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.350005654271868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human Activity Recognition (HAR) models often suffer from performance
degradation in real-world applications due to distribution shifts in activity
patterns across individuals. Test-Time Adaptation (TTA) is an emerging learning
paradigm that aims to utilize the test stream to adjust predictions in
real-time inference, which has not been explored in HAR before. However, the
high computational cost of optimization-based TTA algorithms makes it
intractable to run on resource-constrained edge devices. In this paper, we
propose an Optimization-Free Test-Time Adaptation (OFTTA) framework for
sensor-based HAR. OFTTA adjusts the feature extractor and linear classifier
simultaneously in an optimization-free manner. For the feature extractor, we
propose Exponential DecayTest-time Normalization (EDTN) to replace the
conventional batch normalization (CBN) layers. EDTN combines CBN and Test-time
batch Normalization (TBN) to extract reliable features against domain shifts
with TBN's influence decreasing exponentially in deeper layers. For the
classifier, we adjust the prediction by computing the distance between the
feature and the prototype, which is calculated by a maintained support set. In
addition, the update of the support set is based on the pseudo label, which can
benefit from reliable features extracted by EDTN. Extensive experiments on
three public cross-person HAR datasets and two different TTA settings
demonstrate that OFTTA outperforms the state-of-the-art TTA approaches in both
classification performance and computational efficiency. Finally, we verify the
superiority of our proposed OFTTA on edge devices, indicating possible
deployment in real applications. Our code is available at
https://github.com/Claydon-Wang/OFTTA.
- Abstract(参考訳): ヒューマンアクティビティ認識(har)モデルは、個人間のアクティビティパターンの分布の変化により、現実世界のアプリケーションでパフォーマンス低下に苦しむことが多い。
テスト時間適応(TTA)は、テストストリームを利用してリアルタイム推論の予測を調整することを目的とした、新たな学習パラダイムである。
しかし、最適化に基づくTTAアルゴリズムの計算コストが高いため、リソース制約のあるエッジデバイス上での動作は困難である。
本稿では,センサベースHARのためのOFTTA(Optimization-Free Test-Time Adaptation)フレームワークを提案する。
OFTTAは最適化のない方法で特徴抽出器と線形分類器を同時に調整する。
特徴抽出器として,従来のバッチ正規化(CBN)層を置き換えるために,EDTN(Exponential DecayTest-time Normalization)を提案する。
EDTNはCBNとテストタイムバッチ正規化(TBN)を組み合わせて、ドメインシフトに対する信頼性のある特徴を抽出する。
分類器では,維持支援セットで計算した特徴量とプロトタイプの距離を計算し,予測値の調整を行う。
さらに、サポートセットの更新は擬似ラベルに基づいており、これはEDTNによって抽出された信頼できる機能の恩恵を受けることができる。
3つの公開対人HARデータセットと2つの異なるTTA設定に関する大規模な実験は、OFTTAが分類性能と計算効率の両方において最先端のTTAアプローチより優れていることを示した。
最後に,提案するofttaがエッジデバイス上で優れていることを検証し,実際のアプリケーションへのデプロイが可能であることを示す。
私たちのコードはhttps://github.com/Claydon-Wang/OFTTAで公開されています。
関連論文リスト
- Fast Trainable Projection for Robust Fine-Tuning [36.51660287722338]
ロバスト微調整は、競争力のある分散内分散(ID)性能を達成することを目的としている。
プロジェクションベースの微調整は頑健な微調整に成功している。
Fast Trainable Projectionはプロジェクションベースのファインチューニングアルゴリズムである。
論文 参考訳(メタデータ) (2023-10-29T22:52:43Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Active Finetuning: Exploiting Annotation Budget in the
Pretraining-Finetuning Paradigm [132.9949120482274]
本稿では,事前学習ファインタニングパラダイムにおけるアノテーションのためのサンプルの選択に焦点を当てる。
本研究では,アクティブな微調整タスクのためのActiveFTと呼ばれる新しい手法を提案する。
画像分類とセマンティックセグメンテーションの両方に基づくベースラインよりも優れたActiveFTの先行性能と高効率性を示す。
論文 参考訳(メタデータ) (2023-03-25T07:17:03Z) - TTN: A Domain-Shift Aware Batch Normalization in Test-Time Adaptation [28.63285970880039]
最近の試験時間適応法は, 逐次バッチ正規化(TBN)に大きく依存している
テストバッチ統計を利用するTBNを採用することで、ドメインシフトによるパフォーマンス劣化が軽減される。
本稿では,各BN層のドメインシフト感度に応じて,CBNとTBNの重要度を調整し,統計を補間する新しいテスト時正規化法を提案する。
論文 参考訳(メタデータ) (2023-02-10T10:25:29Z) - Robust Continual Test-time Adaptation: Instance-aware BN and
Prediction-balanced Memory [58.72445309519892]
テストデータストリーム以外のデータストリームに対して堅牢な新しいテスト時間適応方式を提案する。
a)分布外サンプルの正規化を修正するIABN(Instance-Aware Batch Normalization)と、(b)クラスバランスのない方法で非i.d.ストリームからのデータストリームをシミュレートするPBRS(Predict- Balanced Reservoir Sampling)である。
論文 参考訳(メタデータ) (2022-08-10T03:05:46Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Test-time Batch Normalization [61.292862024903584]
ディープニューラルネットワークは、トレーニングとテストの間のデータ分散シフトに悩まされることが多い。
トレーニングプロセスにおけるバッチ正規化(BN)を再検討し、テスト時の最適化に有効な2つの重要な洞察を明らかにします。
本稿では,エントロピー損失を最小限に抑えて,テスト中に最適化された新しいBN層設計GpreBNを提案する。
論文 参考訳(メタデータ) (2022-05-20T14:33:39Z) - Latency Adjustable Transformer Encoder for Language Understanding [0.9790236766474201]
本稿では,提案する推論遅延の高速化により,推論コストを適応的に調整する効率的なトランスフォーマーアーキテクチャを提案する。
提案手法は,重要でないシークエンス要素(ワードベクター)を検出し,Actent Context Contribution (ACC) メトリックを用いて,各エンコーダ層でそれらを除去する。
提案手法は,BERTベースとGPT-2の推論遅延を最大4.8倍,3.72倍に改善し,0.75%の精度低下と平均パープレキシティが得られた。
論文 参考訳(メタデータ) (2022-01-10T13:04:39Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Adaptive Test-Time Augmentation for Low-Power CPU [3.5473686344971416]
Test-Time Augmentation (TTA)テクニックは、推論時にそのような一般的な副作用を軽減することを目的とする。
本稿では,フィードフォワード回数を動的に制御するTTAの適応的実装であるAdapTTAを提案する。
商用ARM Cortex-A CPUにデプロイされた画像分類のための最新のConvNetsに関する実験結果では、AdapTTAが驚くべき遅延節約を達成している。
論文 参考訳(メタデータ) (2021-05-13T10:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。