論文の概要: ResLT: Residual Learning for Long-tailed Recognition
- arxiv url: http://arxiv.org/abs/2101.10633v2
- Date: Wed, 27 Jan 2021 01:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:54:19.818317
- Title: ResLT: Residual Learning for Long-tailed Recognition
- Title(参考訳): ResLT:ロングテール認識のための残差学習
- Authors: Jiequan Cui, Shu Liu, Zhuotao Tian, Zhisheng Zhong, Jiaya Jia
- Abstract要約: 本稿では,パラメータ空間の側面から,より基本的なロングテール認識の視点を提案する。
すべてのクラスから画像を認識するために最適化されたメインブランチと、medium+tailクラスとtailクラスからのイメージを強化するために徐々に2つの残りのブランチを融合して最適化する。
我々は、CIFAR-10、CIFAR-100、Places、ImageNet、iNaturalist 2018の長期バージョンであるいくつかのベンチマークでこの方法をテストする。
- 参考スコア(独自算出の注目度): 64.19728932445523
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning algorithms face great challenges with long-tailed data
distribution which, however, is quite a common case in real-world scenarios.
Previous methods tackle the problem from either the aspect of input space
(re-sampling classes with different frequencies) or loss space (re-weighting
classes with different weights), suffering from heavy over-fitting to tail
classes or hard optimization during training. To alleviate these issues, we
propose a more fundamental perspective for long-tailed recognition, {i.e., from
the aspect of parameter space, and aims to preserve specific capacity for
classes with low frequencies. From this perspective, the trivial solution
utilizes different branches for the head, medium, tail classes respectively,
and then sums their outputs as the final results is not feasible. Instead, we
design the effective residual fusion mechanism -- with one main branch
optimized to recognize images from all classes, another two residual branches
are gradually fused and optimized to enhance images from medium+tail classes
and tail classes respectively. Then the branches are aggregated into final
results by additive shortcuts. We test our method on several benchmarks, {i.e.,
long-tailed version of CIFAR-10, CIFAR-100, Places, ImageNet, and iNaturalist
2018. Experimental results manifest that our method achieves new
state-of-the-art for long-tailed recognition. Code will be available at
\url{https://github.com/FPNAS/ResLT}.
- Abstract(参考訳): ディープラーニングのアルゴリズムは、長尾のデータ分散で大きな課題に直面していますが、現実のシナリオでは、非常に一般的なケースです。
従来の手法では、入力空間の側面(周波数の異なるクラスの再サンプリング)や損失空間(重みの異なるクラスの再重み付け)から問題に対処し、テールクラスへの過剰な過剰フィットやトレーニング中のハード最適化に苦しむ。
これらの問題を軽減するために、パラメータ空間の側面から、長尾認識のためのより基本的な視点{i.e. を提案し、低周波のクラスに対する特定の容量を維持することを目指している。
この観点では、自明な解は、それぞれヘッド、ミディアム、テールクラスの異なる分岐を利用し、最終的な結果が実現不可能であるとして出力を和する。
1つのメインブランチがすべてのクラスの画像を認識するように最適化され、もう1つのメインブランチが徐々に融合され、それぞれ中型テールクラスとテールクラスの画像を強化するように最適化される。
その後、枝は加算ショートカットによって最終結果に集約される。
我々は、CIFAR-10、CIFAR-100、Places、ImageNet、iNaturalist 2018の長期バージョンをベンチマークでテストした。
実験の結果,ロングテール認識のための新しい最先端技術が得られた。
コードは \url{https://github.com/FPNAS/ResLT} で利用できる。
関連論文リスト
- Deep Feature Surgery: Towards Accurate and Efficient Multi-Exit Networks [13.492494712188922]
本稿では,マルチエクイットネットワークのトレーニングにおいて,勾配コンフリクトの問題を解決するためのDeep Feature Surgery (methodname)を提案する。
methodnameは、バックプロパゲーションの複雑さを減らしたトレーニング操作を再現する。
予算バッチ分類評価は、DFSがCifar100のベースライン法と同じ分類精度を達成するために、画像毎の平均FLOPを約$$$mbolbolbolf2boldtimesで削減していることを示している。
論文 参考訳(メタデータ) (2024-07-19T02:31:31Z) - LCReg: Long-Tailed Image Classification with Latent Categories based
Recognition [81.5551335554507]
本稿では,Lar-tail Recognition(LCReg)法を提案する。
我々の仮説は、頭と尾のクラスで共有される一般的な潜伏的特徴は、特徴表現を改善するために使用できるというものである。
具体的には、頭と尾の両方で共有されるクラス非依存の潜伏特徴の集合を学習し、潜伏特徴のセマンティックデータ拡張を用いてトレーニングサンプルの多様性を暗黙的に増加させる。
論文 参考訳(メタデータ) (2023-09-13T02:03:17Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Feature Generation for Long-tail Classification [36.186909933006675]
そこで本研究では,テールカテゴリーの分布を推定して有意義な特徴を生成する方法を示す。
また、t-SNE視覚化を用いて生成した特徴の質的分析を行い、末尾クラス分布のキャリブレーションに最も近い隣人を解析する。
論文 参考訳(メタデータ) (2021-11-10T21:34:29Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。