論文の概要: Exploring Alternatives to Softmax Function
- arxiv url: http://arxiv.org/abs/2011.11538v1
- Date: Mon, 23 Nov 2020 16:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:57:14.828804
- Title: Exploring Alternatives to Softmax Function
- Title(参考訳): ソフトマックス関数の代替探索
- Authors: Kunal Banerjee, Vishak Prasad C, Rishi Raj Gupta, Karthik Vyas,
Anushree H, Biswajit Mishra
- Abstract要約: ソフトマックス関数の代替としてテイラー・ソフトマックス, SM-ソフトマックス, 提案したSM-テイラー・ソフトマックスについて検討した。
異なるデータセット上の画像分類タスクに対する実験により、通常のソフトマックス関数よりも優れたSM-テイラーソフトマックス関数の構成が常に存在することが明らかとなった。
- 参考スコア(独自算出の注目度): 0.5924831288313849
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Softmax function is widely used in artificial neural networks for multiclass
classification, multilabel classification, attention mechanisms, etc. However,
its efficacy is often questioned in literature. The log-softmax loss has been
shown to belong to a more generic class of loss functions, called spherical
family, and its member log-Taylor softmax loss is arguably the best alternative
in this class. In another approach which tries to enhance the discriminative
nature of the softmax function, soft-margin softmax (SM-softmax) has been
proposed to be the most suitable alternative. In this work, we investigate
Taylor softmax, SM-softmax and our proposed SM-Taylor softmax, an amalgamation
of the earlier two functions, as alternatives to softmax function. Furthermore,
we explore the effect of expanding Taylor softmax up to ten terms (original
work proposed expanding only to two terms) along with the ramifications of
considering Taylor softmax to be a finite or infinite series during
backpropagation. Our experiments for the image classification task on different
datasets reveal that there is always a configuration of the SM-Taylor softmax
function that outperforms the normal softmax function and its other
alternatives.
- Abstract(参考訳): ソフトマックス関数は、マルチクラス分類、マルチラベル分類、注意機構などの人工ニューラルネットワークで広く使われている。
しかし、その効果は文学でしばしば疑問視される。
対数ソフトマックス損失は球状ファミリーと呼ばれるより一般的な損失関数のクラスに属しており、そのメンバーである対数ソフトマックス損失はおそらくこのクラスにおいて最良の選択肢である。
ソフトマックス関数の判別性を高める別のアプローチでは、ソフトマージンソフトマックス (sm-softmax) が最適な選択肢として提案されている。
本研究では,テイラー・ソフトマックス,SM-ソフトマックス,提案したSM-テイラー・ソフトマックスをソフトマックス関数の代替として検討する。
さらに、バックプロパゲーション中にテイラー・ソフトマックスを有限級数あるいは無限級数とみなすという影響とともに、テイラー・ソフトマックスを10項まで拡大する効果(もともとは2項に拡張することを提案した研究)についても検討する。
画像分類タスクを異なるデータセットで行った結果,sm-taylor softmax関数の構成が通常のsoftmax関数や他の代替関数よりも優れていることが明らかとなった。
関連論文リスト
- MultiMax: Sparse and Multi-Modal Attention Learning [60.49318008131978]
SoftMaxは現代の機械学習アルゴリズムのユビキタスな成分である。
分散性はSoftMaxの変種族によって達成できるが、それらはしばしば代替損失関数を必要とし、多重モダリティを保たない。
入力入力範囲に応じて出力分布を適応的に変調するMultiMaxを提案する。
論文 参考訳(メタデータ) (2024-06-03T10:51:43Z) - r-softmax: Generalized Softmax with Controllable Sparsity Rate [11.39524236962986]
本稿では,ソフトマックスの修正であるr-softmaxを提案し,スパース確率分布を制御可能なスペーサ率で出力する。
我々は、r-softmaxが他のソフトマックス代替品よりも優れており、元のソフトマックスと高い競争力を持つ複数のマルチラベルデータセットを示す。
論文 参考訳(メタデータ) (2023-04-11T14:28:29Z) - Convex Bounds on the Softmax Function with Applications to Robustness
Verification [69.09991317119679]
ソフトマックス関数は、ニューラルネットワークの出力においてユビキタスなコンポーネントであり、中間層もますます多くなっている。
本稿では,ニューラルネットワークや他のMLモデルのキャラクタリゼーションのための凸最適化式と互換性のある,ソフトマックス関数上の凸下界と凹上界を提供する。
論文 参考訳(メタデータ) (2023-03-03T05:07:02Z) - Spectral Aware Softmax for Visible-Infrared Person Re-Identification [123.69049942659285]
Visible-infrared person re-identification (VI-ReID) は、異なるモードの歩行者画像とマッチングすることを目的としている。
既存の手法は依然として、単一モダリティ分類タスクで広く使われているソフトマックス損失訓練パラダイムに従っている。
そこで本研究では, スペクトル対応ソフトマックス(SA-Softmax)の損失について提案する。
論文 参考訳(メタデータ) (2023-02-03T02:57:18Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - Sparse-softmax: A Simpler and Faster Alternative Softmax Transformation [2.3813678058429626]
ソフトマックス関数は、多クラス分類問題に対する人工ニューラルネットワークで広く用いられている。
本稿では,従来のソフトマックスで発生した問題を高次元の分類問題の観点から緩和するために,単純で簡潔なソフトマックス変種であるスパース・ソフトマックスについて実証的研究を行う。
論文 参考訳(メタデータ) (2021-12-23T09:53:38Z) - Breaking the Softmax Bottleneck for Sequential Recommender Systems with
Dropout and Decoupling [0.0]
SBRSのSoftmaxボトルネックには、さらに多くの側面があることが示されています。
そこで本研究では,これらの問題を緩和するために,D&D(Dropout and Decoupling)というシンプルな手法を提案する。
本手法は,様々なSoftmaxベースのSBRSアルゴリズムの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-11T16:52:23Z) - Sparse Attention with Linear Units [60.399814410157425]
本稿では, ソフトマックスアクティベーションをReLUに置き換えることにより, 注目度を向上する新しい, 簡便な手法を提案する。
我々のモデルはRectified Linear Attention (ReLA)と呼ばれ、以前提案したスパースアテンション機構よりも実装が容易で効率的である。
分析の結果,RELAは高い空間性率と頭部の多様性を達成でき,ソース・ターゲット単語アライメントの精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-04-14T17:52:38Z) - Stabilizing Q Learning Via Soft Mellowmax Operator [12.208344427928466]
Mellowmaxは学習と計画における収束行動を可能にする、微分可能で非拡張型ソフトマックス演算子である。
SM2演算子を多エージェント強化学習シナリオに適用することにより,安定な値関数近似と技術性能の状態を実現できることを示す。
論文 参考訳(メタデータ) (2020-12-17T09:11:13Z) - Optimal Approximation -- Smoothness Tradeoffs for Soft-Max Functions [73.33961743410876]
ソフトマックス関数は近似と滑らかさの2つの主要な効率尺度を持つ。
近似と滑らか性の異なる尺度に対する最適近似-滑らか性トレードオフを同定する。
これにより、新しいソフトマックス関数が生まれ、それぞれ異なる用途に最適である。
論文 参考訳(メタデータ) (2020-10-22T05:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。