論文の概要: 2nd Place Solution for ICCV 2021 VIPriors Image Classification
Challenge: An Attract-and-Repulse Learning Approach
- arxiv url: http://arxiv.org/abs/2206.06168v1
- Date: Mon, 13 Jun 2022 13:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 15:48:44.045012
- Title: 2nd Place Solution for ICCV 2021 VIPriors Image Classification
Challenge: An Attract-and-Repulse Learning Approach
- Title(参考訳): ICCV 2021 VIPriors画像分類チャレンジのための第2位ソリューション: 抽出と反発学習アプローチ
- Authors: Yilu Guo, Shicai Yang, Weijie Chen, Liang Ma, Di Xie, Shiliang Pu
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、大規模なデータセットを利用することで、画像分類において大きな成功を収めた。
特徴表現を豊かにするContrastive Regularization(CR)と、異なるクラスに対する適合性のバランスをとるSymmetric Cross Entropy(SCE)からなるAttract-and-Repulseを提案する。
具体的には、SCEとCRは、クラス(トラクション)とインスタンス(リパルス)の情報間の適応的トレードオフによる過度な適合を緩和しながら、識別表現を学習する。
- 参考スコア(独自算出の注目度): 41.346232387426944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have achieved significant success in
image classification by utilizing large-scale datasets. However, it is still of
great challenge to learn from scratch on small-scale datasets efficiently and
effectively. With limited training datasets, the concepts of categories will be
ambiguous since the over-parameterized CNNs tend to simply memorize the
dataset, leading to poor generalization capacity. Therefore, it is crucial to
study how to learn more discriminative representations while avoiding
over-fitting. Since the concepts of categories tend to be ambiguous, it is
important to catch more individual-wise information. Thus, we propose a new
framework, termed Attract-and-Repulse, which consists of Contrastive
Regularization (CR) to enrich the feature representations, Symmetric Cross
Entropy (SCE) to balance the fitting for different classes and Mean Teacher to
calibrate label information. Specifically, SCE and CR learn discriminative
representations while alleviating over-fitting by the adaptive trade-off
between the information of classes (attract) and instances (repulse). After
that, Mean Teacher is used to further improve the performance via calibrating
more accurate soft pseudo labels. Sufficient experiments validate the
effectiveness of the Attract-and-Repulse framework. Together with other
strategies, such as aggressive data augmentation, TenCrop inference, and models
ensembling, we achieve the second place in ICCV 2021 VIPriors Image
Classification Challenge.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は,大規模データセットを利用することで,画像分類において有意な成功を収めている。
しかし、小規模データセットをスクラッチから効率的に学習することは依然として大きな課題である。
限られたトレーニングデータセットでは、過度にパラメータ化されたCNNが単にデータセットを記憶する傾向があるため、カテゴリの概念は曖昧になる。
したがって,過度な適合を避けながら,より差別的な表現を学習する方法を研究することが重要である。
カテゴリの概念はあいまいな傾向があるため、より個別の情報を取得することが重要である。
そこで本稿では,特徴表現を豊かにするContrastive Regularization (CR) と,異なるクラスに対する適合性のバランスをとるSymmetric Cross Entropy (SCE) と,ラベル情報のキャリブレーションを行うMean Teacher という新たなフレームワークを提案する。
具体的には、sce と cr は、クラス情報 (attract) とインスタンス (repulse) の間の適応的トレードオフによって過剰フィッティングを緩和しながら、識別表現を学習する。
その後、より正確なソフト擬似ラベルを校正することで、パフォーマンスをさらに改善するために平均教師が使用される。
十分な実験は、Attract-and-Repulseフレームワークの有効性を検証する。
攻撃的データ拡張,tencrop推論,モデルセンシングなど他の戦略とともに,iccv 2021画像分類課題において,第2位を達成した。
関連論文リスト
- Efficient Prompt Tuning of Large Vision-Language Model for Fine-Grained
Ship Classification [62.425462136772666]
リモートセンシング(RS-FGSC)における船のきめ細かい分類は、クラス間の高い類似性とラベル付きデータの限られた可用性のために大きな課題となる。
大規模な訓練済みビジョンランゲージモデル(VLM)の最近の進歩は、少数ショット学習やゼロショット学習において印象的な能力を示している。
本研究は, 船種別分類精度を高めるために, VLMの可能性を生かしたものである。
論文 参考訳(メタデータ) (2024-03-13T05:48:58Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Learning and Exploiting Interclass Visual Correlations for Medical Image
Classification [30.88175218665726]
本稿では、クラス相関学習ネットワーク(CCL-Net)を提案し、与えられたトレーニングデータからクラス間の視覚的相関を学習する。
ネットワークが望ましい相関関係を直接学習させる代わりに,クラス固有の埋め込みの距離メートル法学習を通じて暗黙的に学習することを提案する。
相関関係の幾何学的説明に基づく直感的損失は、クラス間の相関関係の学習を促進するために設計されている。
論文 参考訳(メタデータ) (2020-07-13T13:31:38Z) - Reinforced active learning for image segmentation [34.096237671643145]
深部強化学習(RL)に基づく意味的セグメンテーションのための新しいアクティブラーニング戦略を提案する。
エージェントは、ラベルなしデータのプールからラベル付けされる小さな情報領域(画像全体とは対照的に)のサブセットを選択するポリシーを学ぶ。
本手法では, 意味的セグメンテーション問題の大規模性質に適応して, 能動的学習のための深部Q-network (DQN) の定式化を新たに提案する。
論文 参考訳(メタデータ) (2020-02-16T14:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。