論文の概要: ACE: Ally Complementary Experts for Solving Long-Tailed Recognition in
One-Shot
- arxiv url: http://arxiv.org/abs/2108.02385v1
- Date: Thu, 5 Aug 2021 05:31:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 14:40:54.394146
- Title: ACE: Ally Complementary Experts for Solving Long-Tailed Recognition in
One-Shot
- Title(参考訳): ACE: ワンショットで長めの認識を解くための専門家たち
- Authors: Jiarui Cai, Yizhou Wang, Jenq-Neng Hwang
- Abstract要約: 一段長尾認識法は、全体的な性能を「シーソー」方式で改善する。
既存のアルゴリズムは、そのようなトレードオフを多段階のトレーニングプロセスによって回避する。
我々は,一段階の長尾認識手法,アリー補完専門家(ACE)を提案する。
- 参考スコア(独自算出の注目度): 35.309006275276374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-stage long-tailed recognition methods improve the overall performance in
a "seesaw" manner, i.e., either sacrifice the head's accuracy for better tail
classification or elevate the head's accuracy even higher but ignore the tail.
Existing algorithms bypass such trade-off by a multi-stage training process:
pre-training on imbalanced set and fine-tuning on balanced set. Though
achieving promising performance, not only are they sensitive to the
generalizability of the pre-trained model, but also not easily integrated into
other computer vision tasks like detection and segmentation, where pre-training
of classifiers solely is not applicable. In this paper, we propose a one-stage
long-tailed recognition scheme, ally complementary experts (ACE), where the
expert is the most knowledgeable specialist in a sub-set that dominates its
training, and is complementary to other experts in the less-seen categories
without being disturbed by what it has never seen. We design a
distribution-adaptive optimizer to adjust the learning pace of each expert to
avoid over-fitting. Without special bells and whistles, the vanilla ACE
outperforms the current one-stage SOTA method by 3-10% on CIFAR10-LT,
CIFAR100-LT, ImageNet-LT and iNaturalist datasets. It is also shown to be the
first one to break the "seesaw" trade-off by improving the accuracy of the
majority and minority categories simultaneously in only one stage. Code and
trained models are at https://github.com/jrcai/ACE.
- Abstract(参考訳): 一段長尾認識法は、全体的なパフォーマンスを「シーソー」方式で改善する、すなわち、より優れた尾の分類のために頭部の精度を犠牲にするか、あるいは頭部の精度をさらに高めるか、尾を無視する。
既存のアルゴリズムは、不均衡セットの事前トレーニングとバランスセットの微調整という、多段階のトレーニングプロセスによってこのようなトレードオフを回避している。
有望な性能を達成する一方で、事前訓練されたモデルの一般化可能性に敏感なだけでなく、識別やセグメンテーションといった他のコンピュータビジョンタスクにも容易に統合されない。
本稿では,一段階の長尾認識手法であるアリー補完専門家(ACE)を提案し,専門家はトレーニングを統括するサブセットにおいて,最も知識に富んだ専門家であり,これまで見たことのないものに邪魔されずに,他分野の専門家と相補的である。
過度な適合を避けるために,各専門家の学習速度を調整する分布適応型最適化器を設計する。
特別なベルや笛がなければ、バニラACEはCIFAR10-LT、CIFAR100-LT、ImageNet-LT、iNaturalistデータセットで現在のワンステージSOTA法を3-10%上回る。
また、多数派と少数派を同時に1段階に絞って「シーソー」のトレードオフを打破した最初の例であることも示されている。
コードとトレーニングされたモデルはhttps://github.com/jrcai/aceにある。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Class-incremental Learning using a Sequence of Partial Implicitly
Regularized Classifiers [0.0]
クラス増分学習では、トレーニングデータ全体にアクセスすることなく、複数のクラスを順次学習することが目的である。
CIFAR100データセットの実験では、提案手法がSOTAの性能を大きなマージンで向上させることが示された。
論文 参考訳(メタデータ) (2021-04-04T10:02:45Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Once-for-All Adversarial Training: In-Situ Tradeoff between Robustness
and Accuracy for Free [115.81899803240758]
敵の訓練とその多くの変種は、ネットワークの堅牢性を大幅に改善するが、標準精度を妥協するコストがかかる。
本稿では,訓練されたモデルをその場で迅速に校正する方法を問うとともに,その標準と堅牢な精度のトレードオフについて検討する。
提案するフレームワークであるOne-for-all Adversarial Training (OAT)は,革新的なモデル条件トレーニングフレームワーク上に構築されている。
論文 参考訳(メタデータ) (2020-10-22T16:06:34Z) - PANDA: Adapting Pretrained Features for Anomaly Detection and
Segmentation [34.98371632913735]
本研究では,事前学習した特徴と単純な異常検出と分割法を組み合わせることで,最先端の手法を確実に上回ることを示す。
さらなる性能向上を得るために,事前学習した特徴を目標分布に適応させる。
論文 参考訳(メタデータ) (2020-10-12T17:52:50Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。