論文の概要: CRL: Class Representative Learning for Image Classification
- arxiv url: http://arxiv.org/abs/2002.06619v1
- Date: Sun, 16 Feb 2020 17:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 18:17:22.230700
- Title: CRL: Class Representative Learning for Image Classification
- Title(参考訳): crl:画像分類のためのクラス代表学習
- Authors: Mayanka Chandrashekar and Yugyung Lee
- Abstract要約: 本稿では,ZSLの影響を受けやすいクラス代表学習モデル(CRL)を提案する。
CRLモデルでは、まず、畳み込みニューラルネットワーク(CNN)から抽出された特徴を集約することにより、データセットのクラスを表現するクラス代表を構築する。
提案したCRLモデルは,ZSLおよびモバイル深層学習における最先端の研究と比較して,優れた性能を示した。
- 参考スコア(独自算出の注目度): 5.11566193457943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building robust and real-time classifiers with diverse datasets are one of
the most significant challenges to deep learning researchers. It is because
there is a considerable gap between a model built with training (seen) data and
real (unseen) data in applications. Recent works including Zero-Shot Learning
(ZSL), have attempted to deal with this problem of overcoming the apparent gap
through transfer learning. In this paper, we propose a novel model, called
Class Representative Learning Model (CRL), that can be especially effective in
image classification influenced by ZSL. In the CRL model, first, the learning
step is to build class representatives to represent classes in datasets by
aggregating prominent features extracted from a Convolutional Neural Network
(CNN). Second, the inferencing step in CRL is to match between the class
representatives and new data. The proposed CRL model demonstrated superior
performance compared to the current state-of-the-art research in ZSL and mobile
deep learning. The proposed CRL model has been implemented and evaluated in a
parallel environment, using Apache Spark, for both distributed learning and
recognition. An extensive experimental study on the benchmark datasets,
ImageNet-1K, CalTech-101, CalTech-256, CIFAR-100, shows that CRL can build a
class distribution model with drastic improvement in learning and recognition
performance without sacrificing accuracy compared to the state-of-the-art
performances in image classification.
- Abstract(参考訳): 多様なデータセットを持つ堅牢でリアルタイムな分類器の構築は、ディープラーニング研究者にとって最も重要な課題の1つだ。
これは、トレーニング(seen)データで構築されたモデルと、アプリケーション内の実際の(seen)データとの間にかなりのギャップがあるためです。
ゼロショット学習(ZSL)を含む最近の研究は、転送学習による明らかなギャップを克服する問題に対処しようと試みている。
本稿では,zslの影響を受ける画像分類において特に有効であるクラス代表学習モデル(crl)を提案する。
CRLモデルでは、まず、畳み込みニューラルネットワーク(CNN)から抽出した特徴を集約することにより、データセット内のクラスを表現するクラス代表を構築する。
第2に、CRLの推論ステップは、クラス代表と新しいデータとの一致です。
提案したCRLモデルは,ZSLおよびモバイル深層学習における最先端の研究と比較して,優れた性能を示した。
提案したCRLモデルは、分散学習と認識の両方のために、Apache Sparkを使用して並列環境で実装および評価されている。
ベンチマークデータセットであるImageNet-1K, CalTech-101, CalTech-256, CIFAR-100の広範な実験により、CRLは、画像分類における最先端のパフォーマンスと比較して精度を犠牲にすることなく、学習および認識性能を大幅に改善したクラス分散モデルを構築することができることが示された。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - DiRaC-I: Identifying Diverse and Rare Training Classes for Zero-Shot
Learning [6.75714270653184]
ゼロショット学習(ZSL)のためのデータセットから、インテリジェントにトレーニングクラスを選択することで、既存のZSLメソッドのパフォーマンスを向上させることは直感的である。
属性ベースのデータセットが与えられた場合、ZSLモデルのトレーニングに最も適した「Seen Class」をインテリジェントに生成できるDiverse and Rare Class Identifier (DiRaC-I) というフレームワークを提案する。
DRaC-IはZSLモデルの分類精度の向上に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-31T16:05:09Z) - Efficient Gaussian Process Model on Class-Imbalanced Datasets for
Generalized Zero-Shot Learning [37.00463358780726]
本稿では,潜在機能埋め込みを学習するニューラルネットワークモデルと,未確認クラスの潜在機能プロトタイプを予測するガウスプロセス(GP)回帰モデルを提案する。
我々のモデルは、クラス不均衡なトレーニングデータの影響を緩和する単純なトレーニング戦略により、効率的に訓練される。
論文 参考訳(メタデータ) (2022-10-11T04:57:20Z) - R-DFCIL: Relation-Guided Representation Learning for Data-Free Class
Incremental Learning [64.7996065569457]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、新しい知識を学ぶ際に、破滅的な忘れ方に苦しむ。
近年のDFCIL研究は、従来のクラスのデータ合成のためのモデル反転のような手法を導入している。
本稿では、R-DFCILと呼ばれるDFCILのための関係誘導型表現学習(RRL)を提案する。
論文 参考訳(メタデータ) (2022-03-24T14:54:15Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。