論文の概要: SPRINT: Semi-supervised Prototypical Representation for Few-Shot Class-Incremental Tabular Learning
- arxiv url: http://arxiv.org/abs/2603.04321v1
- Date: Wed, 04 Mar 2026 17:39:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.431139
- Title: SPRINT: Semi-supervised Prototypical Representation for Few-Shot Class-Incremental Tabular Learning
- Title(参考訳): SPRINT:Few-Shot Class-Incremental Tabular Learningのための半教師付きプロトタイプ表現
- Authors: Umid Suleymanov, Murat Kantarcioglu, Kevin S Chan, Michael De Lucia, Kevin Hamlen, Latifur Khan, Sharad Mehrotra, Ananthram Swami, Bhavani Thuraisingham,
- Abstract要約: コンピュータビジョンにおいてFSCIL(Few-Shot Class-Incremental Learning)が確立されている。
本稿では,表分布に適した最初のFSCILフレームワークであるSPRINTを紹介する。
SPRINTは、ストレージコストを低くして、ベースクラス履歴を保持する。
最先端の平均精度は77.37%で、最も高いインクリメンタルベースラインを4.45%上回っている。
- 参考スコア(独自算出の注目度): 25.838742480394373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world systems must continuously adapt to novel concepts from limited data without forgetting previously acquired knowledge. While Few-Shot Class-Incremental Learning (FSCIL) is established in computer vision, its application to tabular domains remains largely unexplored. Unlike images, tabular streams (e.g., logs, sensors) offer abundant unlabeled data, a scarcity of expert annotations and negligible storage costs, features ignored by existing vision-based methods that rely on restrictive buffers. We introduce SPRINT, the first FSCIL framework tailored for tabular distributions. SPRINT introduces a mixed episodic training strategy that leverages confidence-based pseudo-labeling to enrich novel class representations and exploits low storage costs to retain base class history. Extensive evaluation across six diverse benchmarks spanning cybersecurity, healthcare, and ecological domains, demonstrates SPRINT's cross-domain robustness. It achieves a state-of-the-art average accuracy of 77.37% (5-shot), outperforming the strongest incremental baseline by 4.45%.
- Abstract(参考訳): 現実世界のシステムは、以前獲得した知識を忘れずに、限られたデータから新しい概念に継続的に適応しなければならない。
FSCIL (Few-Shot Class-Incremental Learning) はコンピュータビジョンにおいて確立されているが、表領域への応用は未定である。
画像とは異なり、タブ形式のストリーム(ログ、センサーなど)は、ラベルのない豊富なデータ、専門家アノテーションの不足、無視可能なストレージコストを提供する。
本稿では,表分布に適した最初のFSCILフレームワークであるSPRINTを紹介する。
SPRINTは、信頼に基づく疑似ラベルを利用して、新しいクラス表現を豊かにし、ベースクラス履歴を保持するために低ストレージコストを利用する混合エピソードトレーニング戦略を導入している。
サイバーセキュリティ、ヘルスケア、エコロジードメインにまたがる6つの多様なベンチマークの広範な評価は、SPRINTのクロスドメインの堅牢性を示している。
最先端の平均精度は77.37%(5ショット)で、最も高いインクリメンタルベースラインを4.45%上回っている。
関連論文リスト
- Steering Vision-Language Pre-trained Models for Incremental Face Presentation Attack Detection [62.89126207012712]
顔提示攻撃検出(PAD)は、スプーフィング戦術やドメインと戦うために漸進的な学習を要求する。
過去のデータ保持を禁止し、リハーサルフリーラーニング(RF-IL)を必要とするプライバシー規制
論文 参考訳(メタデータ) (2025-12-22T04:30:11Z) - Learning More with Less: A Generalizable, Self-Supervised Framework for Privacy-Preserving Capacity Estimation with EV Charging Data [84.37348569981307]
自己教師付き事前学習に基づく第一種能力推定モデルを提案する。
我々のモデルは一貫して最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-10-05T08:58:35Z) - FARCLUSS: Fuzzy Adaptive Rebalancing and Contrastive Uncertainty Learning for Semi-Supervised Semantic Segmentation [26.585985828583304]
半教師付きセマンティックセグメンテーション(SSSS)は、ラベルのないデータを効果的に活用する上で、永続的な課題に直面している。
現在のアプローチは、しばしば支配階級を優先する厳格なしきい値によって不確実な地域を捨てる。
我々は,不確実性を4つの主要コンポーネントを通じて学習資産に変換する総合的な枠組みを導入する。
論文 参考訳(メタデータ) (2025-06-11T03:47:08Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Attention-based Generative Latent Replay: A Continual Learning Approach for WSI Analysis [3.6630930118966814]
全体スライド画像(WSI)分類は、計算病理学において強力なツールとして登場したが、ドメインシフトによって制約されている。
本稿では,Attention-based Generative Latent Replay Continual Learning framework (AGLR-CL) を提案する。
論文 参考訳(メタデータ) (2025-05-13T12:55:46Z) - Prototype-Based Continual Learning with Label-free Replay Buffer and Cluster Preservation Loss [3.824522034247845]
連続学習技術は、単純なリプレイサンプル選択プロセスを使用し、その後のタスクでそれらを使用する。
本稿では,ラベルのないプロトタイプを自動的に選択することで,これから離れる。
クラスインクリメンタルとドメインインクリメンタルのシナリオでは、"Push-away"と"pull-toward"のメカニズムも導入されている。
論文 参考訳(メタデータ) (2025-04-09T19:26:26Z) - ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - CAST: Cluster-Aware Self-Training for Tabular Data via Reliable Confidence [0.4999814847776098]
自己学習は、誤った自信によって引き起こされるノイズの多い擬似ラベルに対して脆弱である。
CAST(Cluster-Aware Self-Training)は、既存の自己学習アルゴリズムを無視可能なコストで強化する。
論文 参考訳(メタデータ) (2023-10-10T07:46:54Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。