論文の概要: Revisiting lp-constrained Softmax Loss: A Comprehensive Study
- arxiv url: http://arxiv.org/abs/2206.09616v1
- Date: Mon, 20 Jun 2022 08:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:59:43.878395
- Title: Revisiting lp-constrained Softmax Loss: A Comprehensive Study
- Title(参考訳): lp-constrained softmax lossの再検討
- Authors: Chintan Trivedi, Konstantinos Makantasis, Antonios Liapis, Georgios N.
Yannakakis
- Abstract要約: そこで本研究では,lp制約付きソフトマックス損失分類器の性能について検討した。
実験結果から,lp制約のソフトマックス損失分類器はより正確な分類結果が得られることが示唆された。
我々は,lp正規化が画像分類において,性能と収束性の観点から推奨されるデータ表現の実践であることを示唆する。
- 参考スコア(独自算出の注目度): 2.570570340104555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalization is a vital process for any machine learning task as it controls
the properties of data and affects model performance at large. The impact of
particular forms of normalization, however, has so far been investigated in
limited domain-specific classification tasks and not in a general fashion.
Motivated by the lack of such a comprehensive study, in this paper we
investigate the performance of lp-constrained softmax loss classifiers across
different norm orders, magnitudes, and data dimensions in both proof-of-concept
classification problems and real-world popular image classification tasks.
Experimental results suggest collectively that lp-constrained softmax loss
classifiers not only can achieve more accurate classification results but, at
the same time, appear to be less prone to overfitting. The core findings hold
across the three popular deep learning architectures tested and eight datasets
examined, and suggest that lp normalization is a recommended data
representation practice for image classification in terms of performance and
convergence, and against overfitting.
- Abstract(参考訳): 正規化は、データのプロパティを制御し、大規模なモデルパフォーマンスに影響を与えるため、あらゆる機械学習タスクにとって重要なプロセスである。
しかし、特定の形式による正規化の影響は、一般的な方法でではなく、限定されたドメイン固有の分類タスクで研究されている。
このような包括的研究の欠如に動機づけられて,本論文では概念実証型分類問題と実世界の一般的な画像分類課題の両方におけるlp制約型ソフトマックス損失分類器の性能について検討する。
実験結果から,lp制約のソフトマックス損失分類器はより正確な分類結果が得られるだけでなく,過度に適合する傾向が低いことが示唆された。
この中核的な発見は、テストされた3つの人気のあるディープラーニングアーキテクチャと8つのデータセットを対象とし、lp正規化はパフォーマンスと収束の点で画像分類のための推奨データ表現プラクティスであり、オーバーフィッティングに反するものであることを示唆している。
関連論文リスト
- Fine-grained Abnormality Prompt Learning for Zero-shot Anomaly Detection [88.34095233600719]
FAPromptは、より正確なZSADのためにきめ細かい異常プロンプトを学習するために設計された新しいフレームワークである。
画像レベルおよび画素レベルのZSADタスクにおいて、最先端の手法を少なくとも3%-5%のAUC/APで大幅に上回っている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Fine-Grained ImageNet Classification in the Wild [0.0]
ロバストネステストは、典型的なモデル評価段階で気づかないいくつかの脆弱性やバイアスを明らかにすることができる。
本研究では,階層的知識の助けを借りて,密接に関連するカテゴリのきめ細かい分類を行う。
論文 参考訳(メタデータ) (2023-03-04T12:25:07Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Few-shot Deep Representation Learning based on Information Bottleneck
Principle [0.0]
標準異常検出問題では、サンプルが正規データの単一ソースから生成されたと仮定して、教師なしの設定で検出モデルを訓練する。
実際には、通常データは複数のクラスから構成されることが多いが、このような設定では、大規模ラベル付きデータを持たない通常のクラス間の相違点において、通常のインスタンスと異常を区別する学習が大きな課題となっている。
本研究では,通常のクラスからサンプルを少数用意することで,この課題を克服しようと試みるが,これは過度にコストがかかるものではない。
論文 参考訳(メタデータ) (2021-11-25T07:15:12Z) - SLA$^2$P: Self-supervised Anomaly Detection with Adversarial
Perturbation [77.71161225100927]
異常検出は、機械学習の基本的な問題であるが、難しい問題である。
本稿では,非教師付き異常検出のための新しい強力なフレームワークであるSLA$2$Pを提案する。
論文 参考訳(メタデータ) (2021-11-25T03:53:43Z) - Enhancing Fine-Grained Classification for Low Resolution Images [97.82441158440527]
低解像度画像は、限られた情報内容の固有の課題と、サブカテゴリ分類に有用な詳細の欠如に悩まされる。
本研究では,補助情報を用いて分類の識別的特徴を学習する,新たな属性支援損失を提案する。
提案する損失関数により、モデルは属性レベルの分離性を取り入れながら、クラス固有の識別特徴を学習することができる。
論文 参考訳(メタデータ) (2021-05-01T13:19:02Z) - von Mises-Fisher Loss: An Exploration of Embedding Geometries for
Supervised Learning [12.37528281037283]
最近の研究では、softmaxクロスエントロピーを用いた分類損失は、固定セット分類タスクだけでなく、オープンセットタスクにも優れていると主張している。
各種固定集合分類および画像検索タスクにおけるソフトマックス損失に対する埋め込み幾何の実証的検討を行う。
論文 参考訳(メタデータ) (2021-03-29T16:07:09Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Contraction Mapping of Feature Norms for Classifier Learning on the Data
with Different Quality [5.47982638565422]
本稿では,訓練画像の特徴規範の範囲を品質に応じて圧縮する縮約写像関数を提案する。
手書き文字認識、肺結節分類、顔認証、顔認識など、様々な分類応用の実験は、提案手法が有望であることを実証している。
論文 参考訳(メタデータ) (2020-07-27T09:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。