論文の概要: CA2: Class-Agnostic Adaptive Feature Adaptation for One-class
Classification
- arxiv url: http://arxiv.org/abs/2309.01483v1
- Date: Mon, 4 Sep 2023 09:39:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 19:00:52.125237
- Title: CA2: Class-Agnostic Adaptive Feature Adaptation for One-class
Classification
- Title(参考訳): ca2: 1クラス分類のためのクラス非依存適応型特徴適応
- Authors: Zilong Zhang, Zhibin Zhao, Deyu Meng, Xingwu Zhang, Xuefeng Chen
- Abstract要約: 一クラス分類のためのクラス非依存適応型特徴適応法(CA2)を提案する。
センターベース手法を未知のクラスに一般化し、事前学習ネットワークに存在する事前学習に基づいて、この目的を最適化する。
CA2は1から1024までのトレーニングデータクラスのOCCパフォーマンスを継続的に改善し、最先端のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 37.96353879426153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class classification (OCC), i.e., identifying whether an example belongs
to the same distribution as the training data, is essential for deploying
machine learning models in the real world. Adapting the pre-trained features on
the target dataset has proven to be a promising paradigm for improving OCC
performance. Existing methods are constrained by assumptions about the number
of classes. This contradicts the real scenario where the number of classes is
unknown. In this work, we propose a simple class-agnostic adaptive feature
adaptation method (CA2). We generalize the center-based method to unknown
classes and optimize this objective based on the prior existing in the
pre-trained network, i.e., pre-trained features that belong to the same class
are adjacent. CA2 is validated to consistently improve OCC performance across a
spectrum of training data classes, spanning from 1 to 1024, outperforming
current state-of-the-art methods. Code is available at
https://github.com/zhangzilongc/CA2.
- Abstract(参考訳): 1クラス分類(OCC)、すなわち、サンプルがトレーニングデータと同じ分布に属しているかどうかを特定することは、実世界で機械学習モデルをデプロイするのに不可欠である。
ターゲットデータセットに事前トレーニングされた機能を適用することは、OCCパフォーマンスを改善するための有望なパラダイムであることが証明されている。
既存のメソッドはクラス数に関する仮定によって制約される。
これは、クラス数が不明な実際のシナリオと矛盾する。
本研究では,クラスに依存しない適応型特徴適応法(CA2)を提案する。
そこで本研究では,本手法を未知のクラスに一般化し,事前学習したネットワークに存在する事前条件,すなわち,同一クラスに属する事前学習された特徴に基づいて目的を最適化する。
CA2は1から1024までのトレーニングデータクラスのOCCパフォーマンスを継続的に改善し、最先端のメソッドよりも優れています。
コードはhttps://github.com/zhangzilongc/ca2で入手できる。
関連論文リスト
- A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - DiGeo: Discriminative Geometry-Aware Learning for Generalized Few-Shot
Object Detection [39.937724871284665]
汎用的な少ショットオブジェクト検出は、豊富なアノテーションと限られたトレーニングデータを持つ新しいクラスで、両方のベースクラス上で正確な検出を実現することを目的としている。
既存のアプローチは、ベースクラスのパフォーマンスを犠牲にして、数ショットの一般化を促進する。
クラス間分離とクラス内コンパクト性の幾何学的特徴を学習するための新しいトレーニングフレームワークDiGeoを提案する。
論文 参考訳(メタデータ) (2023-03-16T22:37:09Z) - Class-Incremental Learning with Cross-Space Clustering and Controlled
Transfer [9.356870107137093]
クラス増分学習では,従来のクラスに関する知識を維持しつつ,新しいクラスを継続的に学習することが期待される。
クラスインクリメンタルラーニングのための蒸留法に基づく2つの目的を提案する。
論文 参考訳(メタデータ) (2022-08-07T16:28:02Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Class-Incremental Learning with Generative Classifiers [6.570917734205559]
本稿では,クラス増分学習のための新しい戦略を提案する。
本提案は,p(x|y)p(y) として分解された合同分布 p(x,y) を学習し,ベイズ則を用いた分類を行うことである。
ここでは,各学習クラスに対して,変分オートエンコーダをトレーニングすることで,この戦略を実証する。
論文 参考訳(メタデータ) (2021-04-20T16:26:14Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Meta Learning for Few-Shot One-class Classification [0.0]
メタ学習問題として,一級分類における意味のある特徴の学習を定式化する。
これらの表現を学習するには、類似したタスクからのマルチクラスデータのみが必要である。
数ショットの分類データセットを、数ショットの1クラスの分類シナリオに適応させることで、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-09-11T11:35:28Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。