論文の概要: Optimizing Kernel Discrepancies via Subset Selection
- arxiv url: http://arxiv.org/abs/2511.02706v1
- Date: Tue, 04 Nov 2025 16:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.106429
- Title: Optimizing Kernel Discrepancies via Subset Selection
- Title(参考訳): サブセット選択によるカーネルの差異の最適化
- Authors: Deyao Chen, François Clément, Carola Doerr, Nathan Kirk,
- Abstract要約: カーネル不一致は準モンテカルロ法(QMC)における最悪のケースエラーを分析する強力なツールである。
本稿では,カーネルの相違に適応する新しいサブセット選択アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.1259953341639576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel discrepancies are a powerful tool for analyzing worst-case errors in quasi-Monte Carlo (QMC) methods. Building on recent advances in optimizing such discrepancy measures, we extend the subset selection problem to the setting of kernel discrepancies, selecting an m-element subset from a large population of size $n \gg m$. We introduce a novel subset selection algorithm applicable to general kernel discrepancies to efficiently generate low-discrepancy samples from both the uniform distribution on the unit hypercube, the traditional setting of classical QMC, and from more general distributions $F$ with known density functions by employing the kernel Stein discrepancy. We also explore the relationship between the classical $L_2$ star discrepancy and its $L_\infty$ counterpart.
- Abstract(参考訳): カーネル不一致は準モンテカルロ法(QMC)における最悪のケースエラーを分析する強力なツールである。
このような不一致対策を最適化する最近の進歩に基づいて、我々はサブセット選択問題をカーネルの不一致の設定にまで拡張し、m要素の部分集合を大集団$n \gg m$から選択する。
本稿では,従来のQMCの構成である単位ハイパーキューブ上の一様分布と,カーネル・スタインの差分法を用いて既知の密度関数を持つより一般的な分布から,低差分サンプルを効率よく生成するために,一般的なカーネル不一致に適用可能な新しいサブセット選択アルゴリズムを提案する。
また、古典的な$L_2$星差と、その$L_\infty$星差の関係についても検討する。
関連論文リスト
- Analysis of Kernel Mirror Prox for Measure Optimization [4.6080589718744305]
我々は、MFNE(Mixed Functional Nash Equilibrium)と呼ばれる機能的サドル点最適化問題のクラスを統一したフレームワークで研究する。
我々は,サドル点最適化力学を相互作用するFisher-Rao-RKHS勾配流としてモデル化する。
このクラス MFNE 問題の無限次元設定において、KMP の統一収束解析を提供する。
論文 参考訳(メタデータ) (2024-02-29T21:55:17Z) - Variational Autoencoder Kernel Interpretation and Selection for
Classification [59.30734371401315]
本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
論文 参考訳(メタデータ) (2022-09-10T17:22:53Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Feature subset selection for kernel SVM classification via mixed-integer
optimization [0.7734726150561088]
非線形カーネルサポートベクトルマシン(SVM)における特徴部分選択のための混合整数最適化(MIO)手法について検討した。
1970年代に線形回帰について最初に提案されたこのアプローチは、最近最適化アルゴリズムとコンピュータハードウェアの進歩とともにスポットライトに移行した。
特徴部分集合選択のためのカーネルターゲットアライメントに基づくMILO(mixed-integer linear optimization)の定式化を提案し,このMILO問題を最適化ソフトウェアを用いて最適に解くことができる。
論文 参考訳(メタデータ) (2022-05-28T04:01:40Z) - Kernel Selection for Stein Variational Gradient Descent [19.16800190883095]
一つのカーネルではなく、最適なカーネルを近似するために、複数のカーネルの組み合わせを提案する。
提案手法は最適なカーネル依存を除去するだけでなく,計算効率も維持する。
論文 参考訳(メタデータ) (2021-07-20T08:48:42Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Marginalising over Stationary Kernels with Bayesian Quadrature [36.456528055624766]
ガウス過程核の族上のMarginalisingは、よく校正された不確実性推定を持つ柔軟なモデルクラスを生成する。
本稿では, この限界化をより効率的に, より実用的なものにするためのベイズ四分法を提案する。
論文 参考訳(メタデータ) (2021-06-14T14:23:34Z) - Kernel k-Means, By All Means: Algorithms and Strong Consistency [21.013169939337583]
Kernel $k$クラスタリングは、非線形データの教師なし学習のための強力なツールである。
本稿では,最適化された局所解に対処するための一般的な手法を応用した結果を一般化する。
我々のアルゴリズムは、この非線形分離問題をよりよく解くために、Magricalization-minimization (MM) を利用している。
論文 参考訳(メタデータ) (2020-11-12T16:07:18Z) - Non-Convex SGD Learns Halfspaces with Adversarial Label Noise [50.659479930171585]
分布固有モデルにおいて,同種半空間の学習を代理する問題に対する解を示す。
任意の凸分布において、誤分類誤差は本質的にハーフスペースの誤分類誤差につながることを示す。
論文 参考訳(メタデータ) (2020-06-11T18:55:59Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。