論文の概要: XLDA: Linear Discriminant Analysis for Scaling Continual Learning to
Extreme Classification at the Edge
- arxiv url: http://arxiv.org/abs/2307.11317v1
- Date: Fri, 21 Jul 2023 02:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 13:50:36.059376
- Title: XLDA: Linear Discriminant Analysis for Scaling Continual Learning to
Extreme Classification at the Edge
- Title(参考訳): XLDA: エッジにおける極端分類への連続学習のスケーリングのための線形判別分析
- Authors: Karan Shah, Vishruth Veerendranath, Anushka Hebbar and Raghavendra
Bhat
- Abstract要約: 極端分類シナリオを含むFC層とLDAが等価であることが証明されたエッジデプロイメントにおけるクラスILのためのフレームワークであるXLDAを提案する。
バッチトレーニングアプローチで最大42倍のスピードアップを実現し,最大5倍の推論スピードアップを実現しています。
- 参考スコア(独自算出の注目度): 1.5293427903448025
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Streaming Linear Discriminant Analysis (LDA) while proven in
Class-incremental Learning deployments at the edge with limited classes (upto
1000), has not been proven for deployment in extreme classification scenarios.
In this paper, we present: (a) XLDA, a framework for Class-IL in edge
deployment where LDA classifier is proven to be equivalent to FC layer
including in extreme classification scenarios, and (b) optimizations to enable
XLDA-based training and inference for edge deployment where there is a
constraint on available compute resources. We show up to 42x speed up using a
batched training approach and up to 5x inference speedup with nearest neighbor
search on extreme datasets like AliProducts (50k classes) and Google Landmarks
V2 (81k classes)
- Abstract(参考訳): LDA(Streaming Linear Discriminant Analysis)は、限られたクラス(最大1000まで)を持つエッジでのクラスインクリメンタルラーニングデプロイメントで証明されているが、極端な分類シナリオでのデプロイメントでは証明されていない。
本稿では,本稿で述べる。
(a) XLDA - LDA分類器が極端な分類シナリオを含むFC層と等価であることが証明されたエッジデプロイメントにおけるクラスILのためのフレームワーク。
b) 利用可能な計算リソースに制約があるエッジデプロイメントにおいて,XLDAベースのトレーニングと推論を可能にする最適化。
バッチトレーニングアプローチによる最大42倍のスピードアップと、aliproducts(50kクラス)やgoogle landmarks v2(81kクラス)といった極端なデータセットの近接探索による最大5倍の推論スピードアップを実現しています。
関連論文リスト
- ASTRA: Accurate and Scalable ANNS-based Training of Extreme Classifiers [13.633871625193882]
高精度でスケーラブルなExtreme分類アルゴリズムASTRAを開発した。
ASTRAはSOTA精度を達成し、トレーニング時間を第2のベストに対して4倍から15倍に短縮する。
論文 参考訳(メタデータ) (2024-09-30T10:07:28Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Introducing Block-Toeplitz Covariance Matrices to Remaster Linear
Discriminant Analysis for Event-related Potential Brain-computer Interfaces [0.0]
ToeplitzLDAは、各チャネルのショートタイムウィンドウにおける信号定常性の仮定を実装している。
結果:ToeplitzLDAは縮小正規化LDAに比べてバイナリ分類性能が有意に向上した。
また、ToeplitzLDAは20倍の時間次元拡大に対してもほとんど不変である。
論文 参考訳(メタデータ) (2022-02-04T07:18:43Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Self-Weighted Robust LDA for Multiclass Classification with Edge Classes [111.5515086563592]
SWRLDAと呼ばれる,l21ノルムを基準とした新しい自己重み付き頑健なLDAを提案する。
提案するSWRLDAは実装が容易で,実際に高速に収束する。
論文 参考訳(メタデータ) (2020-09-24T12:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。