論文の概要: Rethinking Zero-Shot Time Series Classification: From Task-specific Classifiers to In-Context Inference
- arxiv url: http://arxiv.org/abs/2602.00620v1
- Date: Sat, 31 Jan 2026 09:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.295596
- Title: Rethinking Zero-Shot Time Series Classification: From Task-specific Classifiers to In-Context Inference
- Title(参考訳): ゼロショット時系列分類の再考:タスク固有分類器から文脈内推論へ
- Authors: Juntao Fang, Shifeng Xie, Shengbin Nie, Yuhui Ling, Yuming Liu, Zijian Li, Keli Zhang, Lujia Pan, Themis Palpanas, Ruichu Cai,
- Abstract要約: 我々は、ラベル付きトレーニングセットをコンテキストとして扱い、単一のフォワードパスで全てのテストインスタンスのラベルを予測する、コンテキスト内学習フレームワークTIC-FMを提案する。
TIC-FMは、時系列エンコーダとスプリットメイク潜在メモリ変換器を備えた軽量プロジェクションアダプタをペアリングする。
128のUCRデータセットに対する実験は、極低ラベルの状況で一貫した利得で、強い精度を示す。
- 参考スコア(独自算出の注目度): 34.15455500037426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The zero-shot evaluation of time series foundation models (TSFMs) for classification typically uses a frozen encoder followed by a task-specific classifier. However, this practice violates the training-free premise of zero-shot deployment and introduces evaluation bias due to classifier-dependent training choices. To address this issue, we propose TIC-FM, an in-context learning framework that treats the labeled training set as context and predicts labels for all test instances in a single forward pass, without parameter updates. TIC-FM pairs a time series encoder and a lightweight projection adapter with a split-masked latent memory Transformer. We further provide theoretical justification that in-context inference can subsume trained classifiers and can emulate gradient-based classifier training within a single forward pass. Experiments on 128 UCR datasets show strong accuracy, with consistent gains in the extreme low-label situation, highlighting training-free transfer
- Abstract(参考訳): 分類のための時系列基礎モデル(TSFM)のゼロショット評価は、典型的には凍結エンコーダとタスク固有の分類器を使用する。
しかし、このプラクティスはゼロショットデプロイメントのトレーニング不要の前提に反し、分類器に依存したトレーニング選択による評価バイアスを導入する。
この問題を解決するために,ラベル付きトレーニングセットをコンテキストとして扱うコンテキスト内学習フレームワークであるTIC-FMを提案し,パラメータを更新することなく,全テストインスタンスのラベルを1回のフォワードパスで予測する。
TIC-FMは、時系列エンコーダとスプリットメイク潜在メモリ変換器を備えた軽量プロジェクションアダプタをペアリングする。
さらに、文脈内推論が訓練された分類器をサブセットし、単一の前方パス内で勾配に基づく分類器訓練をエミュレートできることを理論的に正当化する。
UCRデータセット128の実験は、極低ラベルの状況において一貫した利得を示し、トレーニング不要な転送を強調している。
関連論文リスト
- Training-Free Time Series Classification via In-Context Reasoning with LLM Agents [29.14242392533328]
時系列分類(TSC)は様々なアプリケーションシナリオにまたがるが、ラベル付きデータは少ないことが多い。
本稿では,事前の文脈推論による学習自由TSCのためのマルチエージェントフレームワークであるFETAを提案する。
論文 参考訳(メタデータ) (2025-10-07T14:07:43Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Sinkhorn Label Allocation: Semi-Supervised Classification via Annealed
Self-Training [38.81973113564937]
セルフトレーニングは、学習者がラベルのないデータに関する予測をトレーニング中の監督として使用する半教師付き学習の標準的なアプローチです。
本稿では,このラベル割当問題を事例とクラス間の最適輸送問題として再解釈する。
我々は,CIFAR-10,CIFAR-100,SVHNデータセットに対するアルゴリズムの有効性を,最先端の自己学習アルゴリズムであるFixMatchと比較した。
論文 参考訳(メタデータ) (2021-02-17T08:23:15Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。