論文の概要: Learning Time in Static Classifiers
- arxiv url: http://arxiv.org/abs/2511.12321v1
- Date: Sat, 15 Nov 2025 18:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.891358
- Title: Learning Time in Static Classifiers
- Title(参考訳): 静的分類器における学習時間
- Authors: Xi Ding, Lei Wang, Piotr Koniusz, Yongsheng Gao,
- Abstract要約: 本稿では,標準フィードフォワード分類器と時間的推論を併用した,シンプルで効果的なフレームワークを提案する。
本稿では, 時間的コヒーレントなトラジェクトリに学習データを構造化するSEQ学習パラダイムを提案する。
我々のアプローチは静的および時間的学習をモジュール的でデータ効率のよい方法でブリッジし、事前抽出された機能の上に単純なものだけを必要とする。
- 参考スコア(独自算出の注目度): 44.358377952850994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world visual data rarely presents as isolated, static instances. Instead, it often evolves gradually over time through variations in pose, lighting, object state, or scene context. However, conventional classifiers are typically trained under the assumption of temporal independence, limiting their ability to capture such dynamics. We propose a simple yet effective framework that equips standard feedforward classifiers with temporal reasoning, all without modifying model architectures or introducing recurrent modules. At the heart of our approach is a novel Support-Exemplar-Query (SEQ) learning paradigm, which structures training data into temporally coherent trajectories. These trajectories enable the model to learn class-specific temporal prototypes and align prediction sequences via a differentiable soft-DTW loss. A multi-term objective further promotes semantic consistency and temporal smoothness. By interpreting input sequences as evolving feature trajectories, our method introduces a strong temporal inductive bias through loss design alone. This proves highly effective in both static and temporal tasks: it enhances performance on fine-grained and ultra-fine-grained image classification, and delivers precise, temporally consistent predictions in video anomaly detection. Despite its simplicity, our approach bridges static and temporal learning in a modular and data-efficient manner, requiring only a simple classifier on top of pre-extracted features.
- Abstract(参考訳): 実世界のビジュアルデータは、隔離された静的なインスタンスとして滅多に現れない。
代わりに、ポーズ、照明、オブジェクト状態、シーンコンテキストのバリエーションを通じて、時間とともに徐々に進化する。
しかし、従来の分類器は通常、時間的独立を前提として訓練され、そのようなダイナミクスを捉える能力を制限する。
本稿では,標準フィードフォワード分類器に時間的推論を付与する簡易かつ効果的なフレームワークを提案する。
我々のアプローチの核心は、トレーニングデータを時間的に一貫した軌道に構造化する新しいSEQ学習パラダイムである。
これらの軌道により、モデルはクラス固有の時間的プロトタイプを学習し、微分可能なソフトDTW損失によって予測シーケンスを調整できる。
長期的目的は、意味的一貫性と時間的滑らかさをさらに促進する。
入力シーケンスを進化的特徴軌跡として解釈することにより,損失設計のみで時間的帰納バイアスを強く導入する。
これは静的タスクと時間的タスクの両方で非常に効果的であり、細粒度と超微細粒度の画像分類のパフォーマンスを高め、ビデオ異常検出において正確な時間的一貫した予測を提供する。
その単純さにもかかわらず、我々のアプローチは静的および時間的学習をモジュール的でデータ効率のよい方法で橋渡しし、事前抽出された機能の上に単純な分類器だけを必要とする。
関連論文リスト
- FreRA: A Frequency-Refined Augmentation for Contrastive Learning on Time Series Classification [56.925103708982164]
周波数領域からの新たな視点を示し、ダウンストリーム分類の利点として、グローバル、独立、コンパクトの3つを識別する。
本稿では,分類タスクにおける時系列のコントラスト学習に適した,軽量で効果的な周波数補充拡張(FreRA)を提案する。
FreRAは、時系列分類、異常検出、転送学習タスクにおいて、常に10つの主要なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-29T07:18:28Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - Learning Causal Domain-Invariant Temporal Dynamics for Few-Shot Action Recognition [12.522600594024112]
少ないショットアクション認識は、トレーニング済みのモデルを新しいデータに迅速に適応することを目的としている。
主な課題は、事前訓練されたモデルから学んだ伝達可能な知識の特定と活用である。
知識伝達のためのCDTD(Causal Domain-Invariant Temporal Dynamics)を提案する。
論文 参考訳(メタデータ) (2024-02-20T04:09:58Z) - Temporal Smoothness Regularisers for Neural Link Predictors [8.975480841443272]
TNTComplExのような単純な手法は、最先端の手法よりもはるかに正確な結果が得られることを示す。
また,2つの時間的リンク予測モデルに対する幅広い時間的平滑化正規化の影響についても検討した。
論文 参考訳(メタデータ) (2023-09-16T16:52:49Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。