論文の概要: Long-tailed Recognition by Routing Diverse Distribution-Aware Experts
- arxiv url: http://arxiv.org/abs/2010.01809v4
- Date: Sun, 1 May 2022 18:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:50:21.194690
- Title: Long-tailed Recognition by Routing Diverse Distribution-Aware Experts
- Title(参考訳): 多様な分布認識エキスパートのルーティングによるロングテール認識
- Authors: Xudong Wang, Long Lian, Zhongqi Miao, Ziwei Liu, Stella X. Yu
- Abstract要約: 我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
- 参考スコア(独自算出の注目度): 64.71102030006422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural data are often long-tail distributed over semantic classes. Existing
recognition methods tackle this imbalanced classification by placing more
emphasis on the tail data, through class re-balancing/re-weighting or
ensembling over different data groups, resulting in increased tail accuracies
but reduced head accuracies.
We take a dynamic view of the training data and provide a principled model
bias and variance analysis as the training data fluctuates: Existing long-tail
classifiers invariably increase the model variance and the head-tail model bias
gap remains large, due to more and larger confusion with hard negatives for the
tail.
We propose a new long-tailed classifier called RoutIng Diverse Experts
(RIDE). It reduces the model variance with multiple experts, reduces the model
bias with a distribution-aware diversity loss, reduces the computational cost
with a dynamic expert routing module. RIDE outperforms the state-of-the-art by
5% to 7% on CIFAR100-LT, ImageNet-LT and iNaturalist 2018 benchmarks. It is
also a universal framework that is applicable to various backbone networks,
long-tailed algorithms, and training mechanisms for consistent performance
gains. Our code is available at:
https://github.com/frank-xwang/RIDE-LongTailRecognition.
- Abstract(参考訳): 自然データは、しばしばセマンティッククラスに分散される。
既存の認識手法はこの不均衡な分類に取り組み、クラスの再バランス/再重み付けや異なるデータグループに対するアンサンブルにより、尾の精度が向上するが、頭部の精度は低下する。
既存のロングテール分類器はモデルの分散を常に増加させ、ヘッドテールモデルのバイアスギャップは、テールの硬い負との混乱がますます大きくなるため、大きいままである。
本稿では,RoutIng Diverse Experts (RIDE) と呼ばれる長尾型分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減する。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
また、様々なバックボーンネットワーク、長い尾のアルゴリズム、一貫したパフォーマンス向上のためのトレーニングメカニズムに適用可能な普遍的なフレームワークである。
私たちのコードは、https://github.com/frank-xwang/RIDE-LongTailRecognitionで利用可能です。
関連論文リスト
- A dual-branch model with inter- and intra-branch contrastive loss for
long-tailed recognition [7.225494453600985]
長い尾のデータセットで訓練されたモデルは、テールクラスへの適応性が低く、決定境界は曖昧である。
我々は,不均衡学習枝と対照学習枝(CoLB)を含む,単純で効果的なDual-Branch Long-Tailed Recognition (DB-LTR)を提案する。
CoLBは、テールクラスに適応する際のモデルの能力を改善し、不均衡な学習ブランチを支援して、よく表現された特徴空間と識別的決定境界を学習する。
論文 参考訳(メタデータ) (2023-09-28T03:31:11Z) - Class Instance Balanced Learning for Long-Tailed Classification [0.0]
ロングテール画像分類タスクは、トレーニングデータのクラス周波数における大きな不均衡を扱う。
従来のアプローチでは、クロスエントロピーとコントラスト学習を組み合わせることで、長いタスクのパフォーマンスが向上することが示されている。
学習バッチにおけるクラスインスタンスの頻度の関数として,クロスエントロピーと対照的な損失の相対的寄与を重み付けする新しいクラスインスタンス平衡損失(CIBL)を提案する。
論文 参考訳(メタデータ) (2023-07-11T15:09:10Z) - Long-Tailed Visual Recognition via Self-Heterogeneous Integration with
Knowledge Excavation [53.94265240561697]
知識抽出による自己異種統合(SHIKE)と呼ばれるMoEに基づく新しい手法を提案する。
SHIKEはCIFAR100-LT (IF100), ImageNet-LT, iNaturalist 2018, Places-LTで56.3%, 60.3%, 75.4%, 41.9%の最先端性能を達成した。
論文 参考訳(メタデータ) (2023-04-03T18:13:39Z) - Improving GANs for Long-Tailed Data through Group Spectral
Regularization [51.58250647277375]
本稿では, スペクトル爆発によるモード崩壊を防止する新しいグループスペクトル正規化器 (gSR) を提案する。
我々は,gSRが既存の拡張および正規化技術と効果的に組み合わせることで,長期化データ上での最先端の画像生成性能が向上することを発見した。
論文 参考訳(メタデータ) (2022-08-21T17:51:05Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Learning Muti-expert Distribution Calibration for Long-tailed Video
Classification [88.12433458277168]
2レベル分布情報に基づくエンドツーエンドのマルチエキスパート分布校正手法を提案する。
この2段階の分布情報をモデル化することで、モデルはヘッドクラスとテールクラスを考慮できる。
本手法は,長編ビデオ分類作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-22T09:52:34Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。