論文の概要: Generalization Bounds on Multi-Kernel Learning with Mixed Datasets
- arxiv url: http://arxiv.org/abs/2205.07313v1
- Date: Sun, 15 May 2022 15:35:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 05:05:02.855069
- Title: Generalization Bounds on Multi-Kernel Learning with Mixed Datasets
- Title(参考訳): 混合データセットを用いたマルチカーネル学習における一般化境界
- Authors: Lan V. Truong
- Abstract要約: データセットは、各サンプルがマルコフ鎖の有限プールから取られるように混合されていると仮定する。
学習カーネルのバウンダリは、ベースカーネルの数に依存する$O(sqrtlog m)$である。
いくつかの$O(sqrtn)$ 項は、サンプル間の依存関係を補うために追加される。
- 参考スコア(独自算出の注目度): 16.3460693863947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents novel generalization bounds for the multi-kernel learning
problem. Motivated by applications in sensor networks, we assume that the
dataset is mixed where each sample is taken from a finite pool of Markov
chains. Our bounds for learning kernels admit $O(\sqrt{\log m})$ dependency on
the number of base kernels and $O(1/\sqrt{n})$ dependency on the number of
training samples. However, some $O(1/\sqrt{n})$ terms are added to compensate
for the dependency among samples compared with existing generalization bounds
for multi-kernel learning with i.i.d. datasets.
- Abstract(参考訳): 本稿では,マルチカーネル学習問題に対する新しい一般化バウンダリを提案する。
センサネットワークでの応用により、各サンプルがマルコフ鎖の有限プールから取り出される際にデータセットが混合されていると仮定する。
学習カーネルのバウンダリは、ベースカーネルの数への依存性$O(\sqrt{\log m})とトレーニングサンプルの数への依存性$O(1/\sqrt{n})である。
しかし、サンプル間の依存性を補うためにいくつかの$o(1/\sqrt{n})$項が追加され、i.i.d.データセットを用いたマルチカーネル学習の既存の一般化境界と比較される。
関連論文リスト
- Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization [65.8915778873691]
条件分布は機械学習の中心的な問題です
ペアデータとペアデータの両方を統合する新しい学習パラダイムを提案する。
我々のアプローチはまた、興味深いことに逆エントロピー最適輸送(OT)と結びついている。
論文 参考訳(メタデータ) (2024-10-03T16:12:59Z) - The sample complexity of multi-distribution learning [17.45683822446751]
サンプル複雑性$widetildeO((d+k)epsilon-2) cdot (k/epsilon)o(1)$は、Awasthi, Haghtalab, Zhao の COLT 2023 開放問題を解く。
論文 参考訳(メタデータ) (2023-12-07T03:53:17Z) - EM for Mixture of Linear Regression with Clustered Data [6.948976192408852]
分散データにおけるクラスタ構造をどのように活用して学習手法を改善するかについて議論する。
我々は、既知の期待値最大化(EM)法を用いて、依存サンプルの$m$バッチから最大値パラメータを推定する。
構造化データ上のEMが適切であれば、$m$が$eo(n)$になる限り、同じ統計的精度に達するのに$O(1)$しか必要としないことを示す。
論文 参考訳(メタデータ) (2023-08-22T15:47:58Z) - The Sample Complexity of Multi-Distribution Learning for VC Classes [25.73730126599202]
マルチディストリビューション学習は、PAC学習を複数のデータ分布を持つ設定に一般化したものである。
PAC学習クラスでは, 既知の上層境界と下層境界との間に大きなギャップが残っている。
本稿では,この問題の最近の進展と,統計学習におけるゲームダイナミクスの利用の基礎となるいくつかのハードルについて論じる。
論文 参考訳(メタデータ) (2023-07-22T18:02:53Z) - On the Role of Noise in the Sample Complexity of Learning Recurrent
Neural Networks: Exponential Gaps for Long Sequences [5.127183254738711]
我々は,長さ$T$の列を分類するために,$w$ (unbounded) 重み付き雑音の多い多層シグモイドリカレントニューラルネットワークのクラスを考える。
我々の主な結果は、このクラスを学習するPACのサンプルの複雑さが$O(wlog(T/sigma))$でバウンドできることを示しています。
以上の結果から, ノイズと非ノイズのネットワークにおいて, サンプルの複雑性が$T$に依存している場合の指数的差が示唆された。
論文 参考訳(メタデータ) (2023-05-28T20:32:16Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Leverage Score Sampling for Tensor Product Matrices in Input Sparsity
Time [54.65688986250061]
我々は,$q$-foldカラムワイドテンソル積の$q$行列に対応するグラム行列を近似するための入力空間時間サンプリングアルゴリズムを提案する。
我々のサンプリング技術は、合計時間でデータセット$X$に同時に適用できる$q$部分相関ランダムプロジェクションのコレクションに依存している。
論文 参考訳(メタデータ) (2022-02-09T15:26:03Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。