論文の概要: Kernel Mean Estimation by Marginalized Corrupted Distributions
- arxiv url: http://arxiv.org/abs/2107.04855v1
- Date: Sat, 10 Jul 2021 15:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 07:24:11.317140
- Title: Kernel Mean Estimation by Marginalized Corrupted Distributions
- Title(参考訳): Marginalized Corrupted Distributions によるカーネル平均推定
- Authors: Xiaobo Xia, Shuo Shan, Mingming Gong, Nannan Wang, Fei Gao, Haikun
Wei, Tongliang Liu
- Abstract要約: カーネル平均をヒルベルト空間で推定することは、多くのカーネル学習アルゴリズムにおいて重要な要素である。
本稿では,カーネル平均推定器としてカーネル平均推定器を提案する。
- 参考スコア(独自算出の注目度): 96.9272743070371
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Estimating the kernel mean in a reproducing kernel Hilbert space is a
critical component in many kernel learning algorithms. Given a finite sample,
the standard estimate of the target kernel mean is the empirical average.
Previous works have shown that better estimators can be constructed by
shrinkage methods. In this work, we propose to corrupt data examples with noise
from known distributions and present a new kernel mean estimator, called the
marginalized kernel mean estimator, which estimates kernel mean under the
corrupted distribution. Theoretically, we show that the marginalized kernel
mean estimator introduces implicit regularization in kernel mean estimation.
Empirically, we show on a variety of datasets that the marginalized kernel mean
estimator obtains much lower estimation error than the existing estimators.
- Abstract(参考訳): 再生カーネルヒルベルト空間におけるカーネル平均の推定は、多くのカーネル学習アルゴリズムにおいて重要な要素である。
有限サンプルが与えられた場合、ターゲットカーネル平均の標準推定値は経験平均である。
以前の研究では、より良い推定器は縮小法によって構築できることを示した。
そこで本研究では,既知の分布からのノイズを伴うデータサンプルを腐敗させ,カーネル平均推定器と呼ばれる新しいカーネル平均推定器を提案する。
理論的には、限界化されたカーネル平均推定器は、カーネル平均推定に暗黙の正規化をもたらす。
実験により,カーネル平均推定器が既存の推定器よりもはるかに低い推定誤差が得られることを示す。
関連論文リスト
- Learning to Embed Distributions via Maximum Kernel Entropy [0.0]
固有データは、確率分布の集合からのサンプルと見なすことができる。
カーネルメソッドは、これらの分布を分類する学習の自然なアプローチとして現れてきた。
データ依存分散カーネルの教師なし学習のための新しい目的を提案する。
論文 参考訳(メタデータ) (2024-08-01T13:34:19Z) - Optimal Kernel for Kernel-Based Modal Statistical Methods [8.571896191090744]
カーネルベースのモーダル統計手法には、モード推定、回帰、クラスタリングがある。
本稿では,カーネル関数の選択がそれらの推定精度に与える影響について検討する。
論文 参考訳(メタデータ) (2023-04-20T01:47:35Z) - Meta-Learning Hypothesis Spaces for Sequential Decision-making [79.73213540203389]
オフラインデータ(Meta-KeL)からカーネルをメタ学習することを提案する。
穏やかな条件下では、推定されたRKHSが有効な信頼セットを得られることを保証します。
また,ベイズ最適化におけるアプローチの有効性を実証的に評価した。
論文 参考訳(メタデータ) (2022-02-01T17:46:51Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Towards Unbiased Random Features with Lower Variance For Stationary
Indefinite Kernels [26.57122949130266]
本アルゴリズムは,既存のカーネル近似法と比較して,より低い分散と近似誤差を達成する。
もともと選択されたカーネルの近似性が向上し、分類精度と回帰能力が向上する。
論文 参考訳(メタデータ) (2021-04-13T13:56:50Z) - How rotational invariance of common kernels prevents generalization in
high dimensions [8.508198765617196]
カーネルリッジ回帰は、低次元設定で最小の最適速度を達成するためによく知られている。
最近の研究は、基底真理関数と入力データの分布を仮定して、カーネル回帰の整合性を確立する。
論文 参考訳(メタデータ) (2021-04-09T08:27:37Z) - Flow-based Kernel Prior with Application to Blind Super-Resolution [143.21527713002354]
カーネル推定は一般にブラインド画像超解像(SR)の鍵となる問題の一つである
本稿では,カーネルモデリングのための正規化フローベースカーネルプリレント(fkp)を提案する。
合成および実世界の画像の実験により、提案したFKPがカーネル推定精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-03-29T22:37:06Z) - Isolation Distributional Kernel: A New Tool for Point & Group Anomaly
Detection [76.1522587605852]
分離分散カーネル(IDK)は2つの分布の類似性を測定する新しい方法である。
我々は、カーネルベースの異常検出のための新しいツールとして、IDKの有効性と効率を示す。
論文 参考訳(メタデータ) (2020-09-24T12:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。