論文の概要: A Bi-level Nonlinear Eigenvector Algorithm for Wasserstein Discriminant
Analysis
- arxiv url: http://arxiv.org/abs/2211.11891v1
- Date: Mon, 21 Nov 2022 22:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:58:52.517961
- Title: A Bi-level Nonlinear Eigenvector Algorithm for Wasserstein Discriminant
Analysis
- Title(参考訳): ワッサースタイン判別分析のための二レベル非線形固有ベクトルアルゴリズム
- Authors: Dong Min Roh, Zhaojun Bai
- Abstract要約: WDA-nepvと呼ばれる二レベル非線形トレース比最適化アルゴリズムを提案する。
正規化ワッサーシュタイン距離の最適輸送行列を計算するためのWDA-nepvの内部核は、NEPvとして定式化される。
WDA-nepvの分類精度の計算効率と応用を実証した。
- 参考スコア(独自算出の注目度): 0.15229257192293197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much like the classical Fisher linear discriminant analysis, Wasserstein
discriminant analysis (WDA) is a supervised linear dimensionality reduction
method that seeks a projection matrix to maximize the dispersion of different
data classes and minimize the dispersion of same data classes. However, in
contrast, WDA can account for both global and local inter-connections between
data classes using a regularized Wasserstein distance. WDA is formulated as a
bi-level nonlinear trace ratio optimization. In this paper, we present a
bi-level nonlinear eigenvector (NEPv) algorithm, called WDA-nepv. The inner
kernel of WDA-nepv for computing the optimal transport matrix of the
regularized Wasserstein distance is formulated as an NEPv, and meanwhile the
outer kernel for the trace ratio optimization is also formulated as another
NEPv. Consequently, both kernels can be computed efficiently via
self-consistent-field iterations and modern solvers for linear eigenvalue
problems. Comparing with the existing algorithms for WDA, WDA-nepv is
derivative-free and surrogate-model-free. The computational efficiency and
applications in classification accuracy of WDA-nepv are demonstrated using
synthetic and real-life datasets.
- Abstract(参考訳): 古典的なフィッシャー線形判別分析と同様に、wasserstein discriminant analysis (wda) は教師付き線形次元減少法であり、異なるデータクラスの分散を最大化し、同じデータクラスの分散を最小化する投影行列を求める。
対照的に、WDAは正規化ワッサーシュタイン距離を用いてデータクラス間の大域的および局所的な相互接続を説明できる。
WDAは二レベル非線形トレース比最適化として定式化されている。
本稿では,二値非線形固有ベクトル(nepv)アルゴリズムwda-nepvを提案する。
正則化ワッサースタイン距離の最適輸送行列を計算するためのwda-nepvの内核をnepvとして定式化し、一方トレース比最適化のための外核を別のnepvとして定式化する。
したがって、両カーネルは自己整合フィールド反復と線形固有値問題に対する現代的な解法によって効率的に計算できる。
WDAの既存のアルゴリズムと比較して、WDA-nepvはデリバティブフリーで代理モデルフリーである。
WDA-nepvの分類精度の計算効率と応用は、合成および実生活データセットを用いて実証される。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Regularized Linear Discriminant Analysis Using a Nonlinear Covariance
Matrix Estimator [11.887333567383239]
線形判別分析(LDA)はデータ分類において広く用いられている手法である。
LDAは、データ共分散行列が不条件であるときに非効率になる。
このような状況に対応するために正規化LDA法が提案されている。
論文 参考訳(メタデータ) (2024-01-31T11:37:14Z) - A Preconditioned Interior Point Method for Support Vector Machines Using
an ANOVA-Decomposition and NFFT-Based Matrix-Vector Products [0.6445605125467574]
最適化問題に対して内部点法で用いられる特徴空間に対して,ANOVA分解を用いた NFFT 加速行列ベクトル積を提案する。
いくつかの大規模データセット上で、異なるプリコンディショナーの性能およびANOVAカーネルの性能について検討する。
論文 参考訳(メタデータ) (2023-12-01T12:27:11Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - GO-LDA: Generalised Optimal Linear Discriminant Analysis [6.644357197885522]
線形判別分析はパターン認識やデータ解析の研究、実践において有用なツールである。
多クラスLDAに対する一般化固有解析解は、直交判別方向を導出したり、それに沿った投影データの識別を最大化したりしないことを示す。
論文 参考訳(メタデータ) (2023-05-23T23:11:05Z) - Spectrally-Corrected and Regularized Linear Discriminant Analysis for
Spiked Covariance Model [2.517838307493912]
本稿では、スペクトル補正および正規化LDA(SRLDA)と呼ばれる線形判別分析の改善を提案する。
SRLDAはスパイクモデル仮定の下で線形分類大域最適解を持つことが証明された。
異なるデータセットに対する実験により、SRLDAアルゴリズムは、現在使われているツールよりも分類と次元の削減が優れていることが示された。
論文 参考訳(メタデータ) (2022-10-08T00:47:50Z) - coVariance Neural Networks [119.45320143101381]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ内の相互関係を利用して学習する効果的なフレームワークである。
我々は、サンプル共分散行列をグラフとして扱う、共分散ニューラルネットワーク(VNN)と呼ばれるGNNアーキテクチャを提案する。
VNN の性能は PCA ベースの統計手法よりも安定していることを示す。
論文 参考訳(メタデータ) (2022-05-31T15:04:43Z) - Varying Coefficient Linear Discriminant Analysis for Dynamic Data [5.228711636020666]
本稿では,動的データに対する変動係数LDAモデルについて検討する。
ベイズ方向と平行な新たな識別方向関数を導出することにより,最小二乗推定法を提案する。
高次元の場合、対応するデータ駆動判別法則は、既存の動的線形プログラミング法則よりも計算的に効率的である。
論文 参考訳(メタデータ) (2022-03-12T07:32:19Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。