論文の概要: Regularized Deep Linear Discriminant Analysis
- arxiv url: http://arxiv.org/abs/2105.07129v1
- Date: Sat, 15 May 2021 03:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 12:39:12.290154
- Title: Regularized Deep Linear Discriminant Analysis
- Title(参考訳): 正規化深層線形判別分析
- Authors: Hongwei Chen and Wen Lu
- Abstract要約: 古典的な線形判別解析(LDA)の非線形拡張として、Deep Linear Discriminant Analysis(DLDA)は元のCategorical Cross Entropy(CCE)損失関数を置き換える。
各次元の識別能力を高めるために, クラス内散乱行列の正則化法を提案する。
- 参考スコア(独自算出の注目度): 26.08062442399418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a non-linear extension of the classic Linear Discriminant Analysis(LDA),
Deep Linear Discriminant Analysis(DLDA) replaces the original Categorical Cross
Entropy(CCE) loss function with eigenvalue-based loss function to make a deep
neural network(DNN) able to learn linearly separable hidden representations. In
this paper, we first point out DLDA focuses on training the cooperative
discriminative ability of all the dimensions in the latent subspace, while put
less emphasis on training the separable capacity of single dimension. To
improve DLDA, a regularization method on within-class scatter matrix is
proposed to strengthen the discriminative ability of each dimension, and also
keep them complement each other. Experiment results on STL-10, CIFAR-10 and
Pediatric Pneumonic Chest X-ray Dataset showed that our proposed regularization
method Regularized Deep Linear Discriminant Analysis(RDLDA) outperformed DLDA
and conventional neural network with CCE as objective. To further improve the
discriminative ability of RDLDA in the local space, an algorithm named Subclass
RDLDA is also proposed.
- Abstract(参考訳): 古典線形判別分析(LDA)の非線形拡張として、Deep Linear Discriminant Analysis(DLDA)は、元のカテゴリ的クロスエントロピー(CCE)損失関数を固有値に基づく損失関数に置き換え、線形分離可能な隠れ表現を学習できるようにする。
本稿では,DLDAが潜在部分空間におけるすべての次元の協調的識別能力の育成に重点を置いているのに対し,単一次元の分離能力の育成に重点を置いている。
dldaを改善するために,各次元の判別能力を強化し,互いに補い合うようにクラス内散乱行列の正則化法を提案する。
STL-10, CIFAR-10, Pediatric Pneumonic Chest X-ray Dataset を用いた実験の結果, 本手法の正則化は, DLDAおよび従来のCCEを用いたニューラルネットワークよりも優れていた。
局所空間におけるRDLDAの識別能力をさらに向上するため,サブクラスRDLDAというアルゴリズムも提案されている。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for
enhanced binary classification [75.90957645766676]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
我々のアプローチは、クラス間の平均距離を最大化し、クラス内の分散を最小化する能力を確立する形式的な証明によって裏付けられている。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - GO-LDA: Generalised Optimal Linear Discriminant Analysis [6.644357197885522]
線形判別分析はパターン認識やデータ解析の研究、実践において有用なツールである。
多クラスLDAに対する一般化固有解析解は、直交判別方向を導出したり、それに沿った投影データの識別を最大化したりしないことを示す。
論文 参考訳(メタデータ) (2023-05-23T23:11:05Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Understanding Incremental Learning of Gradient Descent: A Fine-grained
Analysis of Matrix Sensing [74.2952487120137]
GD(Gradient Descent)は、機械学習モデルにおいて、良い一般化に対する暗黙のバイアスをもたらすと考えられている。
本稿では,行列センシング問題に対するGDのダイナミクスを詳細に解析する。
論文 参考訳(メタデータ) (2023-01-27T02:30:51Z) - Spectrally-Corrected and Regularized Linear Discriminant Analysis for
Spiked Covariance Model [2.517838307493912]
本稿では、スペクトル補正および正規化LDA(SRLDA)と呼ばれる線形判別分析の改善を提案する。
SRLDAはスパイクモデル仮定の下で線形分類大域最適解を持つことが証明された。
異なるデータセットに対する実験により、SRLDAアルゴリズムは、現在使われているツールよりも分類と次元の削減が優れていることが示された。
論文 参考訳(メタデータ) (2022-10-08T00:47:50Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Riemannian-based Discriminant Analysis for Feature Extraction and
Classification [2.1485350418225244]
識別分析は、高次元データから低次元特徴を抽出する機械学習において広く用いられている手法である。
従来のeuclidean-based algorithms for discriminant analysisは、スプリアス局所ミニマに容易に収束する。
RDA(Riemannian-based Discriminant Analysis)と呼ばれる新しい手法を提案し、従来のユークリッド法をリーマン多様体空間へ変換する。
論文 参考訳(メタデータ) (2021-01-20T09:13:34Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - A Doubly Regularized Linear Discriminant Analysis Classifier with
Automatic Parameter Selection [24.027886914804775]
線形判別分析(LDA)に基づく分類器は、訓練データのサイズが特徴数よりも小さい、あるいは同等であるような多くの実践的な設定で混乱する傾向にある。
R2LDAと表す2つの正規化LDA分類器を提案する。
合成データと実データの両方から得られた結果は,提案したR2LDA手法の一貫性と有効性を示す。
論文 参考訳(メタデータ) (2020-04-28T07:09:22Z) - Saliency-based Weighted Multi-label Linear Discriminant Analysis [101.12909759844946]
複数ラベルの分類課題を解決するために,LDA(Linear Discriminant Analysis)の新たな変種を提案する。
提案手法は,個々の試料の重量を定義する確率モデルに基づく。
サリエンシに基づく重み付きマルチラベル LDA アプローチは,様々なマルチラベル分類問題の性能改善につながることが示されている。
論文 参考訳(メタデータ) (2020-04-08T19:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。