論文の概要: Balanced Meta-Softmax for Long-Tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2007.10740v3
- Date: Sun, 22 Nov 2020 05:27:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 03:53:38.844938
- Title: Balanced Meta-Softmax for Long-Tailed Visual Recognition
- Title(参考訳): 長期視覚認識のためのバランス付きメタソフトマックス
- Authors: Jiawei Ren, Cunjun Yu, Shunan Sheng, Xiao Ma, Haiyu Zhao, Shuai Yi,
Hongsheng Li
- Abstract要約: ソフトマックス関数は、ほとんどの分類タスクで使用されるが、長い尾の配置の下で偏りのある勾配推定を与えることを示す。
本稿では,Softmax のエレガントな非バイアス拡張である Balanced Softmax を提案する。
実験では,Quaird Meta-Softmaxが視覚認識とインスタンスセグメンテーションの両タスクにおいて,最先端の長期分類ソリューションより優れていることを示した。
- 参考スコア(独自算出の注目度): 46.215759445665434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep classifiers have achieved great success in visual recognition. However,
real-world data is long-tailed by nature, leading to the mismatch between
training and testing distributions. In this paper, we show that the Softmax
function, though used in most classification tasks, gives a biased gradient
estimation under the long-tailed setup. This paper presents Balanced Softmax,
an elegant unbiased extension of Softmax, to accommodate the label distribution
shift between training and testing. Theoretically, we derive the generalization
bound for multiclass Softmax regression and show our loss minimizes the bound.
In addition, we introduce Balanced Meta-Softmax, applying a complementary Meta
Sampler to estimate the optimal class sample rate and further improve
long-tailed learning. In our experiments, we demonstrate that Balanced
Meta-Softmax outperforms state-of-the-art long-tailed classification solutions
on both visual recognition and instance segmentation tasks.
- Abstract(参考訳): 深い分類器は視覚認識で大きな成功を収めた。
しかし、実世界のデータは自然に長い距離を置き、トレーニングとテストディストリビューションのミスマッチにつながる。
本稿では,ほとんどの分類タスクで用いられているソフトマックス関数が,長い尾の配置の下で偏りのある勾配推定を与えることを示す。
本稿では,Softmax のエレガントな非バイアス拡張である Balanced Softmax を提案する。
理論的には、多重クラスソフトマックス回帰に対する一般化を導出し、損失が境界を最小化することを示す。
さらに,Ba balanced Meta-Softmaxを導入し,相補的なMeta Smplerを用いて最適なクラスサンプル率を推定し,長期学習を改善する。
実験では,Quaird Meta-Softmaxが視覚認識とインスタンスセグメンテーションの両タスクにおいて,最先端の長期分類ソリューションより優れていることを示した。
関連論文リスト
- Revisiting Logistic-softmax Likelihood in Bayesian Meta-Learning for Few-Shot Classification [4.813254903898101]
ロジスティック・ソフトマックスは、多クラスガウス過程分類におけるソフトマックス可能性の代替としてしばしば用いられる。
我々は,温度パラメータによるテクティタ事前信頼度を制御できるロジスティック・ソフトマックスの可能性を再検討し,再検討する。
提案手法では, 精度の高い不確実性推定値が得られ, 標準ベンチマークデータセットにおいて, 同等あるいは優れた結果が得られる。
論文 参考訳(メタデータ) (2023-10-16T13:20:13Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - A two-head loss function for deep Average-K classification [8.189630642296416]
本稿では,従来のソフトマックスに加えて,複数ラベルの分類に基づく新たな損失関数を提案する。
このアプローチによって、モデルがクラス間のあいまいさをよりよく捉え、結果として、より一貫性のあるクラスのセットを返すことができることを示す。
論文 参考訳(メタデータ) (2023-03-31T15:04:53Z) - Spectral Aware Softmax for Visible-Infrared Person Re-Identification [123.69049942659285]
Visible-infrared person re-identification (VI-ReID) は、異なるモードの歩行者画像とマッチングすることを目的としている。
既存の手法は依然として、単一モダリティ分類タスクで広く使われているソフトマックス損失訓練パラダイムに従っている。
そこで本研究では, スペクトル対応ソフトマックス(SA-Softmax)の損失について提案する。
論文 参考訳(メタデータ) (2023-02-03T02:57:18Z) - To Softmax, or not to Softmax: that is the question when applying Active
Learning for Transformer Models [24.43410365335306]
ラベル付きデータセットを取得するための人的労力を減らすためのよく知られたテクニックは、textitActive Learning (AL)である。
本稿では,7つのデータセットに対して8つの選択肢を比較する。
ほとんどのメソッドは真に不確実なサンプル(外れ値)を特定するのに長けており、ラベル付けによってパフォーマンスが低下する。
論文 参考訳(メタデータ) (2022-10-06T15:51:39Z) - Real Additive Margin Softmax for Speaker Verification [14.226089039985151]
AM-Softmaxの損失は、真のマックスマージントレーニングを実装していないことを示す。
ソフトマックストレーニングにおいて真のマージン関数を含むリアルAM-Softmax損失を示す。
論文 参考訳(メタデータ) (2021-10-18T09:11:14Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Balanced Activation for Long-tailed Visual Recognition [13.981652331491558]
オブジェクト検出におけるトレーニングとテストの間のラベル分布のシフトに対応するために、Ba balanced Activationを導入する。
一般にLVIS-1.0上でのmAPでは3%の利得が得られており, 余分なパラメータを導入することなく, 現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-24T11:36:10Z) - Taming GANs with Lookahead-Minmax [63.90038365274479]
MNIST, SVHN, CIFAR-10, ImageNetによる実験結果から, Lookahead-minmaxとAdam, Exgradientの併用が明らかとなった。
30倍のパラメータと16倍のミニバッチを使用して、クラスラベルを使わずに12.19のFIDを得ることにより、CIFAR-10上でクラス依存のBigGANのパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2020-06-25T17:13:23Z) - Gradient Estimation with Stochastic Softmax Tricks [84.68686389163153]
Gumbel-Softmax のトリックを空間に一般化するソフトマックスのトリックを導入する。
ソフトマックスのトリックは、より優れた性能を示す潜在変数モデルを訓練し、より潜時構造を発見するのに利用できる。
論文 参考訳(メタデータ) (2020-06-15T00:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。