論文の概要: Improving Long-Tailed Classification from Instance Level
- arxiv url: http://arxiv.org/abs/2104.06094v1
- Date: Tue, 13 Apr 2021 11:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:28:16.855536
- Title: Improving Long-Tailed Classification from Instance Level
- Title(参考訳): インスタンスレベルからの長期分類の改善
- Authors: Yan Zhao, Weicong Chen, Xu Tan, Kai Huang, Jin Xu, Changhu Wang, and
Jihong Zhu
- Abstract要約: 長期分類を改善するために2つのインスタンスレベルコンポーネントを提案する。
1つ目は適応ロジット調整(ALA)損失であり、ロジットに適応調整項を適用する。
2つ目はMixture-of-Experts (MoE)ネットワークで、マルチエキスパートモジュールとインスタンス対応ルーティングモジュールを含んでいる。
- 参考スコア(独自算出の注目度): 34.10943893320389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data in the real world tends to exhibit a long-tailed label distribution,
which poses great challenges for neural networks in classification. Existing
methods tackle this problem mainly from the coarse-grained class level,
ignoring the difference among instances, e.g., hard samples vs. easy samples.
In this paper, we revisit the long-tailed problem from the instance level and
propose two instance-level components to improve long-tailed classification.
The first one is an Adaptive Logit Adjustment (ALA) loss, which applies an
adaptive adjusting term to the logit. Different from the adjusting terms in
existing methods that are class-dependent and only focus on tail classes, we
carefully design an instance-specific term and add it on the class-dependent
term to make the network pay more attention to not only tailed class, but more
importantly hard samples. The second one is a Mixture-of-Experts (MoE) network,
which contains a multi-expert module and an instance-aware routing module. The
routing module is designed to dynamically integrate the results of multiple
experts according to each input instance, and is trained jointly with the
experts network in an end-to-end manner.Extensive experiment results show that
our method outperforms the state-of-the-art methods by 1% to 5% on common
long-tailed benchmarks including ImageNet-LT and iNaturalist.
- Abstract(参考訳): 現実世界のデータは長いラベルの分布を示す傾向があるため、ニューラルネットワークの分類には大きな課題がある。
既存の手法は主に粗いクラスレベルからこの問題に取り組み、例えばハードサンプルと簡単なサンプルのインスタンスの違いを無視する。
本稿では,long-tailed問題をインスタンスレベルから再検討し,long-tailed分類を改善するための2つのインスタンスレベルコンポーネントを提案する。
1つ目は、適応ロジット調整(Alaptive Logit Adjustment、ALA)損失であり、ロジットに適応調整項を適用する。
クラス依存であり、テールクラスのみに焦点を当てた既存のメソッドの調整用語とは異なり、インスタンス固有の用語を慎重に設計し、クラス依存の用語に追加することで、ネットワークがテールクラスだけでなく、より重要なハードサンプルにもっと注意を払うようにします。
2つ目はMixture-of-Experts (MoE)ネットワークで、マルチエキスパートモジュールとインスタンス対応ルーティングモジュールを含んでいる。
ルーティングモジュールは,各入力インスタンスに応じて複数の専門家の結果を動的に統合するように設計され,専門家ネットワークとエンドツーエンドで共同で訓練されている。この手法は,ImageNet-LTやiNaturalistなど,一般的なロングテールベンチマークにおいて,最先端の手法よりも1%から5%優れていた。
関連論文リスト
- Adapted-MoE: Mixture of Experts with Test-Time Adaption for Anomaly Detection [10.12283550685127]
そこで本稿では,同カテゴリの複数の分布を分割・分割して処理するAdapted-MoEを提案する。
具体的には,同じカテゴリのサンプルをサブクラスの特徴空間にルーティングする表現学習に基づくルーティングネットワークを提案する。
本研究では,未確認のサンプル表現と専門家モデルで学習した特徴分布の偏りを取り除くために,テスト時間適応を提案する。
論文 参考訳(メタデータ) (2024-09-09T13:49:09Z) - Balancing Logit Variation for Long-tailed Semantic Segmentation [28.92929059563813]
トレーニングフェーズにおけるネットワーク予測にカテゴリワイドなバリエーションを導入する。
異なるカテゴリの特徴領域間のギャップを埋めて、よりバランスの取れた表現を生み出します。
提案手法は,様々なデータセットやタスク設定に対して,強い一般化性を示す。
論文 参考訳(メタデータ) (2023-06-03T09:19:24Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Train a One-Million-Way Instance Classifier for Unsupervised Visual
Representation Learning [45.510042484456854]
本稿では、パラメトリックなインスタンスレベルの計算を用いて、データセット内のすべての画像を識別するプリテキストタスクを備えた、単純な教師なし視覚表現学習法を提案する。
全体的なフレームワークは教師付き分類モデルのレプリカであり、セマンティッククラス(犬、鳥、船など)はインスタンスIDに置き換えられる。
数千のセマンティックラベルから数百万のインスタンスラベルへの分類タスクのスケールアップは、1)大規模ソフトマックス分類器、2)インスタンスサンプルの頻度の低い訪問による緩やかな収束、3)ノイズの多い大量の負のクラスなど、特定の課題をもたらす。
論文 参考訳(メタデータ) (2021-02-09T14:44:18Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - Overcoming Classifier Imbalance for Long-tail Object Detection with
Balanced Group Softmax [88.11979569564427]
本報告では, 長期分布前における最先端モデルの過小評価に関する最初の体系的解析を行う。
本稿では,グループワイドトレーニングを通じて検出フレームワーク内の分類器のバランスをとるための,新しいバランス付きグループソフトマックス(BAGS)モジュールを提案する。
非常に最近の長尾大語彙オブジェクト認識ベンチマークLVISの大規模な実験により,提案したBAGSは検出器の性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2020-06-18T10:24:26Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z) - Few-Shot Learning as Domain Adaptation: Algorithm and Analysis [120.75020271706978]
わずかながらの学習は、目に見えないクラスを認識するために、目に見えないクラスから学んだ事前知識を使用する。
このクラス差による分布シフトは、ドメインシフトの特別なケースとみなすことができる。
メタラーニングフレームワークにおいて、そのようなドメインシフト問題に明示的に対処するために、注意を向けたプロトタイプドメイン適応ネットワーク(DAPNA)を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。