論文の概要: Deep Linear Discriminant Analysis Revisited
- arxiv url: http://arxiv.org/abs/2601.01619v1
- Date: Sun, 04 Jan 2026 17:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.573455
- Title: Deep Linear Discriminant Analysis Revisited
- Title(参考訳): 深部線形判別分析の再検討
- Authors: Maxat Tezekbayev, Rustem Takhanov, Arman Bolatov, Zhenisbek Assylbekov,
- Abstract要約: 制約のないDeep Linear Discriminant Analysis (LDA)分類器の場合, 最大線量トレーニングは病的解決策を認める。
混合密度に簡単なペナルティを伴ってLDAログ類似度を増大させるemphDiscriminative Negative Log-Likelihood (DNLL)損失を導入する。
- 参考スコア(独自算出の注目度): 3.569867801312133
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We show that for unconstrained Deep Linear Discriminant Analysis (LDA) classifiers, maximum-likelihood training admits pathological solutions in which class means drift together, covariances collapse, and the learned representation becomes almost non-discriminative. Conversely, cross-entropy training yields excellent accuracy but decouples the head from the underlying generative model, leading to highly inconsistent parameter estimates. To reconcile generative structure with discriminative performance, we introduce the \emph{Discriminative Negative Log-Likelihood} (DNLL) loss, which augments the LDA log-likelihood with a simple penalty on the mixture density. DNLL can be interpreted as standard LDA NLL plus a term that explicitly discourages regions where several classes are simultaneously likely. Deep LDA trained with DNLL produces clean, well-separated latent spaces, matches the test accuracy of softmax classifiers on synthetic data and standard image benchmarks, and yields substantially better calibrated predictive probabilities, restoring a coherent probabilistic interpretation to deep discriminant models.
- Abstract(参考訳): 制約のない深層線形判別分析 (LDA) 分類器では, クラスが一緒にドリフトすること, 共分散が崩壊すること, 学習表現がほとんど差別的になることを, 最大的様相学習は認めている。
逆に、クロスエントロピートレーニングは優れた精度をもたらすが、基礎となる生成モデルから頭部を分離し、非常に矛盾したパラメータ推定をもたらす。
識別性能で生成構造を再現するため,混合密度に簡単なペナルティを伴ってLDAログライクフードを増大させる「emph{Discriminative Negative Log-Likelihood} (DNLL)損失」を導入する。
DNLL は標準の LDA NLL と解釈でき、いくつかのクラスが同時に考えられる領域を明示的に無視する用語である。
DNLLで訓練されたディープLDAは、クリーンでよく区切られた潜在空間を生成し、合成データと標準画像のベンチマークでソフトマックス分類器のテスト精度と一致し、かなり優れたキャリブレーションされた予測確率をもたらし、コヒーレントな確率的解釈を深層判別モデルに復元する。
関連論文リスト
- Simplex Deep Linear Discriminant Analysis [2.6381163133447836]
我々は,Deep Linear Discriminant Analysis (Deep LDA)を再考する。
古典的LDAは線形決定境界を持つ単純なガウスモデルであるのに対し、LDAヘッドをニューラルエンコーダにアタッチすると、最大推定(MLE)による深部分類器の訓練方法が疑問視される。
まず,LDAパラメータとエンコーダパラメータの両方を併用して学習した場合,クラスクラスタのいくつかが重なり,あるいは崩壊し,分類性能が低下する,退化解が認められる。
論文 参考訳(メタデータ) (2026-01-04T22:22:59Z) - Directly Handling Missing Data in Linear Discriminant Analysis for Enhancing Classification Accuracy and Interpretability [1.4840867281815378]
重み付き欠失線形判別分析(WLDA)と呼ばれる新しい頑健な分類法を提案する。
WLDAは線形判別分析(LDA)を拡張して、計算不要な値でデータセットを処理する。
我々はWLDAの特性を確立するために詳細な理論解析を行い、その説明可能性について徹底的に評価する。
論文 参考訳(メタデータ) (2024-06-30T14:21:32Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - GO-LDA: Generalised Optimal Linear Discriminant Analysis [6.644357197885522]
線形判別分析はパターン認識やデータ解析の研究、実践において有用なツールである。
多クラスLDAに対する一般化固有解析解は、直交判別方向を導出したり、それに沿った投影データの識別を最大化したりしないことを示す。
論文 参考訳(メタデータ) (2023-05-23T23:11:05Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Regularized Deep Linear Discriminant Analysis [26.08062442399418]
古典的な線形判別解析(LDA)の非線形拡張として、Deep Linear Discriminant Analysis(DLDA)は元のCategorical Cross Entropy(CCE)損失関数を置き換える。
各次元の識別能力を高めるために, クラス内散乱行列の正則化法を提案する。
論文 参考訳(メタデータ) (2021-05-15T03:54:32Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - Saliency-based Weighted Multi-label Linear Discriminant Analysis [101.12909759844946]
複数ラベルの分類課題を解決するために,LDA(Linear Discriminant Analysis)の新たな変種を提案する。
提案手法は,個々の試料の重量を定義する確率モデルに基づく。
サリエンシに基づく重み付きマルチラベル LDA アプローチは,様々なマルチラベル分類問題の性能改善につながることが示されている。
論文 参考訳(メタデータ) (2020-04-08T19:40:53Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。