論文の概要: Tensor Network Kalman Filtering for Large-Scale LS-SVMs
- arxiv url: http://arxiv.org/abs/2110.13501v1
- Date: Tue, 26 Oct 2021 08:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 01:15:40.101006
- Title: Tensor Network Kalman Filtering for Large-Scale LS-SVMs
- Title(参考訳): 大規模LS-SVMのためのテンソルネットワークカルマンフィルタ
- Authors: Maximilian Lucassen, Johan A.K. Suykens, Kim Batselier
- Abstract要約: 最小二乗支援ベクトルマシンは非線形回帰と分類に使用される。
テンソルネットワークとカルマンフィルタに基づくフレームワークは、要求されるメモリと計算の複雑さを軽減する。
その結果,提案手法は高い性能を達成でき,代替手法が計算能力に欠ける場合には特に有用であることがわかった。
- 参考スコア(独自算出の注目度): 17.36231167296782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Least squares support vector machines are a commonly used supervised learning
method for nonlinear regression and classification. They can be implemented in
either their primal or dual form. The latter requires solving a linear system,
which can be advantageous as an explicit mapping of the data to a possibly
infinite-dimensional feature space is avoided. However, for large-scale
applications, current low-rank approximation methods can perform inadequately.
For example, current methods are probabilistic due to their sampling
procedures, and/or suffer from a poor trade-off between the ranks and
approximation power. In this paper, a recursive Bayesian filtering framework
based on tensor networks and the Kalman filter is presented to alleviate the
demanding memory and computational complexities associated with solving
large-scale dual problems. The proposed method is iterative, does not require
explicit storage of the kernel matrix, and allows the formulation of early
stopping conditions. Additionally, the framework yields confidence estimates of
obtained models, unlike alternative methods. The performance is tested on two
regression and three classification experiments, and compared to the Nystr\"om
and fixed size LS-SVM methods. Results show that our method can achieve high
performance and is particularly useful when alternative methods are
computationally infeasible due to a slowly decaying kernel matrix spectrum.
- Abstract(参考訳): 最小二乗支援ベクトルマシンは、非線形回帰と分類のための教師あり学習法である。
それらは原始形または双対形に実装できる。
後者は、データの無限次元特徴空間への明示的なマッピングが避けられるという利点を持つ線形システムを解く必要がある。
しかし、大規模アプリケーションでは、現在の低ランク近似手法が不十分に実行可能である。
例えば、現在の手法はサンプリング手順のため確率的であり、そして/またはランクと近似パワーのトレードオフが貧弱である。
本稿では,テンソルネットワークに基づく再帰的ベイズフィルタフレームワークとカルマンフィルタを用いて,大規模二重問題を解く際の要求メモリと計算複雑性を緩和する。
提案手法は反復的であり,カーネルマトリクスの明示的な保存を必要とせず,早期停止条件の定式化を可能にする。
さらに、このフレームワークは代替手法とは異なり、得られたモデルの信頼度を推定する。
2つの回帰実験と3つの分類実験で実験を行い、Nystr\om法と固定サイズLS-SVM法と比較した。
提案手法は, カーネル行列スペクトルが緩やかに減衰しているため, 計算が不可能な場合に特に有用であることを示す。
関連論文リスト
- Symmetric Rank-One Quasi-Newton Methods for Deep Learning Using Cubic Regularization [0.5120567378386615]
アダムやアダグラッドのような一階降下や他の一階変種は、ディープラーニングの分野で一般的に使われている。
しかし、これらの手法は曲率情報を活用しない。
準ニュートン法は、以前計算された低ヘッセン近似を再利用する。
論文 参考訳(メタデータ) (2025-02-17T20:20:11Z) - The Stochastic Conjugate Subgradient Algorithm For Kernel Support Vector Machines [1.738375118265695]
本稿では,カーネルサポートベクトルマシン(SVM)に特化して設計された革新的な手法を提案する。
イテレーション毎のイテレーションを高速化するだけでなく、従来のSFO技術と比較して収束度も向上する。
実験の結果,提案アルゴリズムはSFO法のスケーラビリティを維持できるだけでなく,潜在的に超越していることが示された。
論文 参考訳(メタデータ) (2024-07-30T17:03:19Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - BioSequence2Vec: Efficient Embedding Generation For Biological Sequences [1.0896567381206714]
本稿では,カーネルメソッドの品質を具現化する汎用表現学習手法を提案する。
提案手法は,任意の距離への入力として利用することができる。
我々はSARS-CoV-2系統や遺伝子ファミリー分類などの実世界の様々な分類タスクを行い、予測性能において最先端の埋め込みやカーネル手法よりも優れています。
論文 参考訳(メタデータ) (2023-04-01T10:58:21Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Efficient Alternating Least Squares Algorithms for Low Multilinear Rank
Approximation of Tensors [6.308492837096872]
テンソルの低次階数近似を効率的に計算するための最小二乗(ALS)に基づく新しいクラスHOSVDアルゴリズムを提案する。
ALSに基づくアプローチは、中間行列の特異ベクトルの冗長な計算を排除し、したがってデータの爆発をなくすことができる。
合成および実世界の双方の大規模テンソルを用いた数値実験により、ALSベースの手法が原材料全体のコストを大幅に削減し、並列計算に非常にスケーラブルであることを示す。
論文 参考訳(メタデータ) (2020-04-06T11:58:04Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。