論文の概要: OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer
- arxiv url: http://arxiv.org/abs/2004.09033v1
- Date: Mon, 20 Apr 2020 02:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:36:57.614866
- Title: OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer
- Title(参考訳): OSLNet: 直交ソフトマックス層を用いた深部小サンプル分類
- Authors: Xiaoxu Li, Dongliang Chang, Zhanyu Ma, Zheng-Hua Tan, Jing-Hao Xue,
Jie Cao, Jingyi Yu, and Jun Guo
- Abstract要約: 本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 77.90012156266324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A deep neural network of multiple nonlinear layers forms a large function
space, which can easily lead to overfitting when it encounters small-sample
data. To mitigate overfitting in small-sample classification, learning more
discriminative features from small-sample data is becoming a new trend. To this
end, this paper aims to find a subspace of neural networks that can facilitate
a large decision margin. Specifically, we propose the Orthogonal Softmax Layer
(OSL), which makes the weight vectors in the classification layer remain
orthogonal during both the training and test processes. The Rademacher
complexity of a network using the OSL is only $\frac{1}{K}$, where $K$ is the
number of classes, of that of a network using the fully connected
classification layer, leading to a tighter generalization error bound.
Experimental results demonstrate that the proposed OSL has better performance
than the methods used for comparison on four small-sample benchmark datasets,
as well as its applicability to large-sample datasets. Codes are available at:
https://github.com/dongliangchang/OSLNet.
- Abstract(参考訳): 複数の非線形層からなるディープニューラルネットワークは大きな関数空間を形成し、小さなサンプルデータに遭遇すると容易に過度に適合する。
小サンプル分類における過度な適合を緩和するために、小サンプルデータからより差別的な特徴を学ぶことが新しいトレンドになりつつある。
この目的のために本論文では,ニューラルネットワークのサブスペースを探索し,大きな決定マージンを実現することを目的とする。
具体的には,分類層内の重みベクトルをトレーニングとテストの両方において直交する直交ソフトマックス層(osl)を提案する。
OSL を用いたネットワークのラデマッハ複雑性は $\frac{1}{K}$ のみであり、$K$ は完全連結な分類層を用いたネットワークのクラス数であり、より厳密な一般化誤差境界となる。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に使用した手法よりも優れた性能を示し,大サンプルデータセットへの適用性を示した。
コードはhttps://github.com/dongliangchang/oslnet。
関連論文リスト
- Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - OpenLDN: Learning to Discover Novel Classes for Open-World
Semi-Supervised Learning [110.40285771431687]
半教師付き学習(SSL)は、教師付き学習のアノテーションボトルネックに対処する主要なアプローチの1つである。
最近のSSLメソッドは、ラベルなしデータの大規模なリポジトリを有効活用して、ラベル付きデータの小さなセットに依存しながら、パフォーマンスを向上させることができる。
この研究は、ペアワイズ類似度損失を利用して新しいクラスを発見するOpenLDNを導入している。
論文 参考訳(メタデータ) (2022-07-05T18:51:05Z) - Deep Low-Density Separation for Semi-Supervised Classification [0.0]
組込み機能に低密度分離を適用した新しいハイブリッド手法を提案する。
本手法は,比較的少数の手作業分類例から,何千人もの未ラベルユーザを効果的に分類する。
論文 参考訳(メタデータ) (2022-05-22T11:00:55Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。