論文の概要: OCFormer: One-Class Transformer Network for Image Classification
- arxiv url: http://arxiv.org/abs/2204.11449v1
- Date: Mon, 25 Apr 2022 05:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:15:28.458904
- Title: OCFormer: One-Class Transformer Network for Image Classification
- Title(参考訳): OCFormer:画像分類のための一級変圧器ネットワーク
- Authors: Prerana Mukherjee, Chandan Kumar Roy, Swalpa Kumar Roy
- Abstract要約: 一クラス分類のための視覚変換器(ViT)に基づく新しいディープラーニングフレームワークを提案する。
提案した一級視覚変換器(OCFormer)は、CIFAR-10、CIFAR-100、Fashion-MNIST、CelebAの眼鏡データセットで徹底的に実験されている。
- 参考スコア(独自算出の注目度): 9.179698034426778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel deep learning framework based on Vision Transformers (ViT)
for one-class classification. The core idea is to use zero-centered Gaussian
noise as a pseudo-negative class for latent space representation and then train
the network using the optimal loss function. In prior works, there have been
tremendous efforts to learn a good representation using varieties of loss
functions, which ensures both discriminative and compact properties. The
proposed one-class Vision Transformer (OCFormer) is exhaustively experimented
on CIFAR-10, CIFAR-100, Fashion-MNIST and CelebA eyeglasses datasets. Our
method has shown significant improvements over competing CNN based one-class
classifier approaches.
- Abstract(参考訳): 一クラス分類のための視覚変換器(ViT)に基づく新しいディープラーニングフレームワークを提案する。
核となるアイデアは、ゼロ中心ガウス雑音を潜在空間表現の擬負クラスとして使用し、最適損失関数を用いてネットワークを訓練することである。
以前の作品では、損失関数の多様体を使って良質な表現を学ぼうという大きな努力があり、判別的かつコンパクトな性質が保証されている。
提案する一級視覚トランスフォーマー(ocformer)は、cifar-10, cifar-100, fashion-mnist, celeba eyeglassesデータセット上で徹底的に実験されている。
提案手法は,cnnベースの1-class classifierアプローチに比べて著しく改善した。
関連論文リスト
- Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Image Clustering via the Principle of Rate Reduction in the Age of Pretrained Models [37.574691902971296]
本稿では,大規模事前学習モデルの強力な特徴表現を利用した画像クラスタリングパイプラインを提案する。
パイプラインは、CIFAR-10、CIFAR-100、ImageNet-1kなどの標準データセットでうまく動作することを示す。
論文 参考訳(メタデータ) (2023-06-08T15:20:27Z) - Reduction of Class Activation Uncertainty with Background Information [0.0]
マルチタスク学習は、一般化を改善したハイパフォーマンスニューラルネットワークをトレーニングするための一般的なアプローチである。
マルチタスク学習と比較して,より低い計算量での一般化を実現するためのバックグラウンドクラスを提案する。
本稿では,背景画像の選択手法を提案し,今後の改善について論じる。
論文 参考訳(メタデータ) (2023-05-05T01:40:00Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Maximally Compact and Separated Features with Regular Polytope Networks [22.376196701232388]
本稿では, CNN から抽出する方法として, クラス間分離性とクラス間圧縮性の特性について述べる。
我々は、よく知られた citewen2016discriminative や他の類似したアプローチで得られる特徴と類似した特徴を得る。
論文 参考訳(メタデータ) (2023-01-15T15:20:57Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - UniFormer: Unifying Convolution and Self-attention for Visual
Recognition [69.68907941116127]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、ここ数年で主要なフレームワークである。
コンボリューションと自己注意の利点を簡潔なトランスフォーマー形式にシームレスに統合する新しいUnified TransFormer(UniFormer)を提案する。
我々のUniFormerはImageNet-1K分類において86.3トップ1の精度を実現している。
論文 参考訳(メタデータ) (2022-01-24T04:39:39Z) - Simpler is Better: Few-shot Semantic Segmentation with Classifier Weight
Transformer [112.95747173442754]
数ショットのセマンティックセグメンテーションモデルは典型的にはCNNエンコーダ、CNNデコーダ、単純な分類器から構成される。
既存のほとんどのメソッドは、新しいクラスに迅速に適応するために、3つのモデルコンポーネント全てをメタ学習する。
本稿では,最も単純なコンポーネントである分類器にのみ焦点をあてて,メタ学習タスクの簡略化を提案する。
論文 参考訳(メタデータ) (2021-08-06T10:20:08Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Self-Supervised Classification Network [3.8073142980733]
自己監視型エンドツーエンド分類ニューラルネットワークはラベルと表現を同時に学習する。
大規模なImageNetデータセットでうまく機能する最初の監視されていないエンドツーエンドの分類ネットワーク。
論文 参考訳(メタデータ) (2021-03-19T19:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。