論文の概要: Incremental Fast Subclass Discriminant Analysis
- arxiv url: http://arxiv.org/abs/2002.04348v1
- Date: Tue, 11 Feb 2020 12:38:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:26:46.045366
- Title: Incremental Fast Subclass Discriminant Analysis
- Title(参考訳): インクリメンタル高速サブクラス判別分析
- Authors: Kateryna Chumachenko, Jenni Raitoharju, Moncef Gabbouj, Alexandros
Iosifidis
- Abstract要約: 本稿では,Fast Subclass Discriminant Analysis (fastSDA) の段階的解を提案する。
我々は、近似カーネル化された変種とともに、正確で近似線形解を示す。
- 参考スコア(独自算出の注目度): 99.09883019034612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an incremental solution to Fast Subclass Discriminant
Analysis (fastSDA). We present an exact and an approximate linear solution,
along with an approximate kernelized variant. Extensive experiments on eight
image datasets with different incremental batch sizes show the superiority of
the proposed approach in terms of training time and accuracy being equal or
close to fastSDA solution and outperforming other methods.
- Abstract(参考訳): 本稿では,Fast Subclass Discriminant Analysis (fastSDA) の段階的解を提案する。
我々は、近似カーネル化された変種とともに、正確で近似線形解を示す。
増分バッチサイズが異なる8つの画像データセットに対する大規模な実験は、トレーニング時間と精度がfastSDAソリューションに等しいか近いか、その他の方法よりも優れていることを示す。
関連論文リスト
- Reweighted Interacting Langevin Diffusions: an Accelerated Sampling
Methodfor Optimization [28.25662317591378]
本稿では, サンプリング手法を高速化し, 難解な最適化問題の解法を提案する。
提案手法は, 後部分布サンプリングとLangevin Dynamicsを用いた最適化の関連性について検討する。
論文 参考訳(メタデータ) (2023-01-30T03:48:20Z) - Last-Iterate Convergence of Saddle-Point Optimizers via High-Resolution
Differential Equations [83.3201889218775]
広く使われている1次サドル点最適化法は、帰納的導出時に同一の連続時間常微分方程式(ODE)を導出する。
しかし、これらの方法の収束特性は、単純な双線型ゲームでさえ質的に異なる。
いくつかのサドル点最適化法のための微分方程式モデルの設計に流体力学の研究フレームワークを採用する。
論文 参考訳(メタデータ) (2021-12-27T18:31:34Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - Annealed Stein Variational Gradient Descent [4.020523898765405]
スタイン変動勾配降下は、その柔軟性と精度の近似文献推論において注目されている。
本手法は,マルチモーダル分布から試料を採取する能力を実験的に検討し, (i) 粒子が局所モードから脱出できないこと, (ii) 異なる領域の密度を再現できないこと, という2つの重要な問題に注目する。
論文 参考訳(メタデータ) (2021-01-24T22:18:30Z) - Distributed Proximal Splitting Algorithms with Rates and Acceleration [7.691755449724637]
解に対する関数値の最適値または距離の新しいレートで、線形および線形収束結果を導出する。
本稿では,これらのアルゴリズムの分散変種を提案する。
論文 参考訳(メタデータ) (2020-10-02T12:35:09Z) - Accelerated Sparse Bayesian Learning via Screening Test and Its
Applications [0.9916217495995309]
線形系では、過度に完備な特徴の辞書を具備した最小の解を求めるのは通常NPハードである。
本稿では,解の空間性を促進するためにパラメータ化を事前に用いた疎ベイズ学習を提案する。
論文 参考訳(メタデータ) (2020-07-08T10:21:56Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z) - An improved online learning algorithm for general fuzzy min-max neural
network [11.631815277762257]
本稿では,一般ファジィmin-maxニューラルネット(GFMM)のための現在のオンライン学習アルゴリズムの改良版を提案する。
提案手法では、重なり合うハイパーボックスの収縮過程は使用せず、エラー率を増大させる可能性が高い。
オンライン学習アルゴリズムでは,トレーニングサンプルの提示順序に対する感度を低減するために,簡単なアンサンブル法を提案する。
論文 参考訳(メタデータ) (2020-01-08T06:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。