論文の概要: Localisation of Regularised and Multiview Support Vector Machine Learning
- arxiv url: http://arxiv.org/abs/2304.05655v4
- Date: Fri, 29 Nov 2024 20:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:54:45.969826
- Title: Localisation of Regularised and Multiview Support Vector Machine Learning
- Title(参考訳): 正規化・多視点支援ベクトル機械学習のローカライズ
- Authors: Aurelian Gheondea, Cankat Tilki,
- Abstract要約: 我々は、H.Q., L. Bazzani, V. Murによって導入された正規化マルチビュー支援ベクトル機械学習問題の局所化バージョンに対するいくつかの代表者定理を証明した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We prove a few representer theorems for a localised version of the regularised and multiview support vector machine learning problem introduced by H.Q. Minh, L. Bazzani, and V. Murino, Journal of Machine Learning Research, 17(2016) 1-72, that involves operator valued positive semidefinite kernels and their reproducing kernel Hilbert spaces. The results concern general cases when convex or nonconvex loss functions and finite or infinite dimensional input spaces are considered. We show that the general framework allows infinite dimensional input spaces and nonconvex loss functions for some special cases, in particular in case the loss functions are Gateaux differentiable. Detailed calculations are provided for the exponential least squares loss functions that lead to systems of partially nonlinear equations for which a particular different types of Newton's approximation methods based on the interior point method can be used. Some numerical experiments are performed on a toy model that illustrate the tractability of the methods that we propose.
- Abstract(参考訳): 我々は、H.Q. Minh, L. Bazzani, V. Murino, Journal of Machine Learning Research, 17(2016) 1-72によって導入された正規化および多ビューサポートベクター機械学習問題の局所化バージョンに対するいくつかの表現定理を証明した。
結果は、凸や非凸の損失関数や有限あるいは無限次元の入力空間が考慮される場合の一般的なケースに関係している。
特に損失関数がガトー微分可能であれば、一般のフレームワークは無限次元の入力空間と非凸損失関数をいくつかの特別な場合に対して許すことを示す。
より詳細な計算は、インテリアポイント法に基づくニュートンの近似の特定の異なる種類の近似法を使用できる部分非線形方程式の系に導かれる指数関数最小二乗損失関数に対して提供される。
提案手法のトラクタビリティを示す玩具モデルを用いて,いくつかの数値実験を行った。
関連論文リスト
- Quantum metrology with linear Lie algebra parameterisations [0.0]
我々は、線形微分方程式をもたらす量子フィッシャー情報に対する新しいリー代数展開を提供する。
これにより、多くの気象問題に関わる計算が大幅に削減される。
量子光学および非線形光学における問題に適用されたこれらの手法の詳細な例を示す。
論文 参考訳(メタデータ) (2023-11-21T08:58:34Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Regularized ERM on random subspaces [17.927376388967144]
我々は、Nystromがカーネルメソッドに近づいた特殊なケースとして、データのランダムなサブセットにまたがるデータ依存部分空間を考える。
ランダムな部分空間を考えると自然に計算上の節約につながるが、問題は対応する学習精度が劣化するかどうかである。
論文 参考訳(メタデータ) (2022-12-04T16:12:11Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - Fine-grained Generalization Analysis of Vector-valued Learning [28.722350261462463]
正規化ベクトル値学習アルゴリズムの一般化解析を,出力次元に軽度依存する境界とサンプルサイズに高速速度を提示することで開始する。
最適化と学習の相互作用を理解するために、結果を使用して、ベクトル値関数による降下の最初の境界を導出します。
副生成物として、一般凸函数の項で定義される損失関数クラスに対してラデマッハ複雑性を導出する。
論文 参考訳(メタデータ) (2021-04-29T07:57:34Z) - Minimax Estimation of Linear Functions of Eigenvectors in the Face of
Small Eigen-Gaps [95.62172085878132]
固有ベクトル摂動解析は様々な統計データ科学の応用において重要な役割を果たす。
未知の固有ベクトルの任意の線型関数の摂動を特徴付ける統計理論の一組を開発する。
自然の「プラグイン」推定器に固有の非無視バイアス問題を緩和するために,非バイアス推定器を開発する。
論文 参考訳(メタデータ) (2021-04-07T17:55:10Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - Dimension Free Generalization Bounds for Non Linear Metric Learning [61.193693608166114]
我々はスパース体制と非スパース体制という2つの体制に対して一様一般化境界を提供する。
解の異なる新しい性質を頼りにすることで、次元自由一般化保証を提供することができることを示す。
論文 参考訳(メタデータ) (2021-02-07T14:47:00Z) - Regularised Least-Squares Regression with Infinite-Dimensional Output
Space [8.556182714884567]
本稿では,ベクトル値再生カーネルヒルベルト空間(RKHS)回帰に関する学習理論について述べる。
提案手法は,非コンパクト作用素に対するスペクトル理論を用いた積分作用素法に基づく。
論文 参考訳(メタデータ) (2020-10-21T13:03:02Z) - Regularized ERM on random subspaces [18.541369654442796]
我々は、データのランダムなサブセットにまたがるデータ依存部分空間を、カーネルメソッドに対するNystr"omアプローチの特別なケースとして、リカバリする可能性があると考えている。
ランダムな部分空間を考えると自然に計算上の節約につながるが、問題は対応する学習精度が劣化するかどうかである。
論文 参考訳(メタデータ) (2020-06-17T17:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。