論文の概要: Sensor-Specific Transformer (PatchTST) Ensembles with Test-Matched Augmentation
- arxiv url: http://arxiv.org/abs/2510.21282v1
- Date: Fri, 24 Oct 2025 09:26:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.406553
- Title: Sensor-Specific Transformer (PatchTST) Ensembles with Test-Matched Augmentation
- Title(参考訳): PatchTST (Sensor-Specific Transformer) によるテストマッチ拡張
- Authors: Pavankumar Chandankar, Robin Burchard,
- Abstract要約: 本研究では,頑健な人間行動認識のためのノイズ認識,センサ固有アンサンブル手法を提案する。
テスト時間ノイズを再現するために,1秒間スライドウインドウを付加したタンパー付きトレーニングセットにおいて,慣性センサ1個当たりの独立モデル1を訓練した。
プライベートリーダーボードでは、このパイプラインはベースラインよりもかなり高いマクロF1を達成する。
- 参考スコア(独自算出の注目度): 0.8258451067861933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a noise-aware, sensor-specific ensemble approach for robust human activity recognition on the 2nd WEAR Dataset Challenge. Our method leverages the PatchTST transformer architecture, training four independent models-one per inertial sensor location-on a tampered training set whose 1-second sliding windows are augmented to mimic the test-time noise. By aligning the train and test data schemas (JSON-encoded 50-sample windows) and applying randomized jitter, scaling, rotation, and channel dropout, each PatchTST model learns to generalize across real-world sensor perturbations. At inference, we compute softmax probabilities from all four sensor models on the Kaggle test set and average them to produce final labels. On the private leaderboard, this pipeline achieves a macro-F1 substantially above the baseline, demonstrating that test-matched augmentation combined with transformer-based ensembling is an effective strategy for robust HAR under noisy conditions.
- Abstract(参考訳): 本稿では,第2回WEARデータセットチャレンジにおいて,頑健な人間活動認識のためのノイズ認識,センサ固有アンサンブル手法を提案する。
提案手法はPatchTSTトランスフォーマーアーキテクチャを利用して,1秒間スライディングウインドウを付加したタンパー付きトレーニングセット上で,1慣性センサ位置の4つの独立モデルを訓練し,テスト時間ノイズを再現する。
トレインとテストデータスキーマ(JSONでエンコードされた50サンプルウィンドウ)を調整し、ランダムなジッタ、スケーリング、ローテーション、チャネルドロップアウトを適用することで、各PatchTSTモデルは、現実世界のセンサーの摂動をまたいで一般化することを学ぶ。
Inferenceでは、Kaggleテストセット上の4つのセンサーモデルすべてからソフトマックス確率を計算し、それらを平均して最終的なラベルを生成する。
プライベートなリーダーボード上では、このパイプラインはベースラインよりもかなり高いマクロF1を実現し、試験整合強化とトランスフォーマーベースのアンサンブルを組み合わせることが、ノイズの多い条件下での堅牢なHARの効果的な戦略であることを実証した。
関連論文リスト
- ECHO: Frequency-aware Hierarchical Encoding for Variable-length Signals [8.411477071838592]
本稿では,周波数位置埋め込みと高度なバンド分割アーキテクチャを組み合わせた新しい基礎モデルECHOを提案する。
本手法は,様々な種類の機械信号データセットを用いて評価する。
論文 参考訳(メタデータ) (2025-08-20T13:10:44Z) - SMARTIES: Spectrum-Aware Multi-Sensor Auto-Encoder for Remote Sensing Images [17.304106221330414]
最近のディープラーニングモデルは、単一のセンサーや固定された組み合わせに特化していることが多い。
SMARTIESは、センサ依存/依存の取り組みを持ち上げる汎用的で汎用的な基礎モデルである。
多様なセンサーにまたがる単一タスクとマルチモーダルタスクにおいて、SMARTIESはセンサー固有の事前訓練に依存する以前のモデルより優れている。
論文 参考訳(メタデータ) (2025-06-24T12:51:39Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Remote Sensing Change Detection With Transformers Trained from Scratch [62.96911491252686]
トランスフォーマーベースの変更検出(CD)アプローチでは、大規模なイメージ分類でトレーニングされた事前トレーニングモデルを使用するか、別のCDデータセットで最初の事前トレーニングを頼りにしてから、ターゲットのベンチマークを微調整する。
我々は、4つの公開ベンチマークにおいて、スクラッチからトレーニングされながら最先端のパフォーマンスを実現するトランスフォーマーを用いたエンドツーエンドCDアプローチを開発した。
論文 参考訳(メタデータ) (2023-04-13T17:57:54Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Integral Migrating Pre-trained Transformer Encoder-decoders for Visual
Object Detection [78.2325219839805]
imTEDは、数発のオブジェクト検出の最先端を最大7.6%改善する。
MS COCOデータセットの実験は、imTEDが一貫してそのデータセットを2.8%上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-19T15:11:20Z) - Encoding Syntactic Knowledge in Transformer Encoder for Intent Detection
and Slot Filling [6.234581622120001]
本稿では,インテント検出とスロットフィリングのための構文知識を符号化したトランスフォーマーエンコーダアーキテクチャを提案する。
シンタクティックな知識をトランスフォーマーエンコーダにエンコードし、マルチタスク学習を通じて各トークンの構文的パース祖先と部分音声を予測する。
論文 参考訳(メタデータ) (2020-12-21T21:25:11Z) - Gradient-Based Adversarial Training on Transformer Networks for
Detecting Check-Worthy Factual Claims [3.7543966923106438]
本稿では,最初の逆正則変換型クレームスポッタモデルを提案する。
現在の最先端モデルよりもF1スコアが4.70ポイント向上した。
本稿では,変換器モデルに逆学習を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T16:51:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。