論文の概要: An Online Multiple Kernel Parallelizable Learning Scheme
- arxiv url: http://arxiv.org/abs/2308.10101v2
- Date: Mon, 6 Nov 2023 15:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 21:28:59.339356
- Title: An Online Multiple Kernel Parallelizable Learning Scheme
- Title(参考訳): オンラインマルチカーネル並列化学習方式
- Authors: Emilio Ruiz-Moreno and Baltasar Beferull-Lozano
- Abstract要約: 本稿では,カーネル選択バイアスを低減するために,複数の単一カーネルベースのオンライン手法を巧みに組み合わせた学習手法を提案する。
提案手法は、正規化された経験的リスク最小化凸問題として定式化されたタスクに適用される。
- 参考スコア(独自算出の注目度): 6.436174170552483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of reproducing kernel Hilbert space-based methods is known to
be sensitive to the choice of the reproducing kernel. Choosing an adequate
reproducing kernel can be challenging and computationally demanding, especially
in data-rich tasks without prior information about the solution domain. In this
paper, we propose a learning scheme that scalably combines several single
kernel-based online methods to reduce the kernel-selection bias. The proposed
learning scheme applies to any task formulated as a regularized empirical risk
minimization convex problem. More specifically, our learning scheme is based on
a multi-kernel learning formulation that can be applied to widen any
single-kernel solution space, thus increasing the possibility of finding
higher-performance solutions. In addition, it is parallelizable, allowing for
the distribution of the computational load across different computing units. We
show experimentally that the proposed learning scheme outperforms the combined
single-kernel online methods separately in terms of the cumulative regularized
least squares cost metric.
- Abstract(参考訳): 再生カーネルHilbert空間に基づく手法の性能は、再生カーネルの選択に敏感であることが知られている。
適切な再生カーネルの選択は、特にソリューションドメインに関する事前情報なしでデータ豊富なタスクにおいて、困難かつ計算的に要求される。
本稿では,カーネル選択バイアスを低減すべく,複数の単一のカーネルベースオンライン手法を組み合わせた学習手法を提案する。
提案手法は正規化された経験的リスク最小化凸問題として定式化されたタスクに適用できる。
より具体的には、我々の学習スキームは、任意のシングルカーネルソリューション空間を拡張できるマルチカーネル学習の定式化に基づいており、高性能なソリューションを見つける可能性を高めている。
さらに、並列化可能であり、異なる計算単位にまたがる計算負荷の分散を可能にする。
提案手法は, 累積正規化最小二乗法において, 単カーネルのオンライン手法を別々に比較し, 比較検討を行った。
関連論文リスト
- Learning to Embed Distributions via Maximum Kernel Entropy [0.0]
固有データは、確率分布の集合からのサンプルと見なすことができる。
カーネルメソッドは、これらの分布を分類する学習の自然なアプローチとして現れてきた。
データ依存分散カーネルの教師なし学習のための新しい目的を提案する。
論文 参考訳(メタデータ) (2024-08-01T13:34:19Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Self-supervised learning with rotation-invariant kernels [4.059849656394191]
組込み分布を超球面上の均一分布に近接させる汎用正規化損失を設計するための汎用カーネルフレームワークを提案する。
我々のフレームワークは、ハイパースフィア上で定義された回転不変カーネル(ドット生成カーネルとも呼ばれる)を使用する。
本実験は, 回転不変カーネルを用いることで, 最先端の手法と比較して, 競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2022-07-28T08:06:24Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Deep Learning Approximation of Diffeomorphisms via Linear-Control
Systems [91.3755431537592]
我々は、制御に線形に依存する$dot x = sum_i=1lF_i(x)u_i$という形の制御系を考える。
対応するフローを用いて、コンパクトな点のアンサンブル上の微分同相写像の作用を近似する。
論文 参考訳(メタデータ) (2021-10-24T08:57:46Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - Multiple Kernel Representation Learning on Networks [12.106994960669924]
ネットワークのノードに関するランダムな歩行に基づく情報を符号化する重み付き行列分解モデルを提案する。
我々は、カーネルの辞書の線形結合としてカーネルを学習する柔軟性を提供する複数のカーネル学習定式化により、アプローチを拡張した。
論文 参考訳(メタデータ) (2021-06-09T13:22:26Z) - End-to-end Kernel Learning via Generative Random Fourier Features [31.57596752889935]
ランダムフーリエ機能(RFF)は、スペクトルケースでのカーネル学習に有望な方法を提供する。
本稿では,カーネル学習と線形学習を統一フレームワークに組み込む一段階プロセスについて考察する。
論文 参考訳(メタデータ) (2020-09-10T00:27:39Z) - Fast Learning in Reproducing Kernel Krein Spaces via Signed Measures [31.986482149142503]
我々はこの質問を,強調指標を導入することで,分布視点として捉えた。
一連の非PDカーネルは、特定の有限ボレル測度の線型結合に関連付けられる。
特に、このソリューションは、大規模なサンプルケースで非PDカーネルをスケールするために、実際に計算的に実装可能である。
論文 参考訳(メタデータ) (2020-05-30T12:10:35Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。