論文の概要: From Majorization to Interpolation: Distributionally Robust Learning
using Kernel Smoothing
- arxiv url: http://arxiv.org/abs/2102.08474v1
- Date: Tue, 16 Feb 2021 22:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:41:59.701243
- Title: From Majorization to Interpolation: Distributionally Robust Learning
using Kernel Smoothing
- Title(参考訳): 主要化から補間へ:カーネルスムージングを用いた分散ロバスト学習
- Authors: Jia-Jie Zhu, Yassine Nemmour, Bernhard Sch\"olkopf
- Abstract要約: 確率指標に基づく分布的ロバスト最適化(DRO)の関数近似の側面を検討する。
本稿では,滑らかな関数近似と畳み込みに基づく堅牢な学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the function approximation aspect of distributionally robust
optimization (DRO) based on probability metrics, such as the Wasserstein and
the maximum mean discrepancy. Our analysis leverages the insight that existing
DRO paradigms hinge on function majorants such as the Moreau-Yosida
regularization (supremal convolution). Deviating from those, this paper instead
proposes robust learning algorithms based on smooth function approximation and
interpolation. Our methods are simple in forms and apply to general loss
functions without knowing functional norms a priori. Furthermore, we analyze
the DRO risk bound decomposition by leveraging smooth function approximators
and the convergence rate for empirical kernel mean embedding.
- Abstract(参考訳): 分布的に堅牢な最適化(DRO)の関数近似の側面を、Wassersteinや最大平均不一致などの確率メトリクスに基づいて検討する。
我々の分析は、既存のDROパラダイムがモロー・ヨシダ正則化 (supremal convolution) のような関数長元にヒンジするという知見を利用する。
そこで本論文では,スムース関数近似と補間に基づく頑健な学習アルゴリズムを提案する。
本手法は形式的に単純であり,関数ノルムを事前に知ることなく一般損失関数に適用できる。
さらに、スムーズな関数近似器と経験的カーネル平均埋め込みの収束率を利用して、DROのリスク境界分解を分析する。
関連論文リスト
- Statistical Inference of Optimal Allocations I: Regularities and their Implications [3.904240476752459]
まず、ソート作用素の一般性質の詳細な解析を通して、値関数のアダマール微分可能性(英語版)を導出する。
アダマール微分可能性の結果に基づいて、関数デルタ法を用いて値関数プロセスの特性を直接導出する方法を実証する。
論文 参考訳(メタデータ) (2024-03-27T04:39:13Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Statistical Optimality of Divide and Conquer Kernel-based Functional
Linear Regression [1.7227952883644062]
本稿では,対象関数が基礎となるカーネル空間に存在しないシナリオにおいて,分割・コンカレント推定器の収束性能について検討する。
分解に基づくスケーラブルなアプローチとして、関数線形回帰の分割・収束推定器は、時間とメモリにおけるアルゴリズムの複雑さを大幅に減らすことができる。
論文 参考訳(メタデータ) (2022-11-20T12:29:06Z) - Nonparametric learning of kernels in nonlocal operators [6.314604944530131]
非局所作用素におけるカーネル学習のための厳密な識別可能性解析および収束研究を提供する。
本稿では,新しいデータ適応型RKHS Tikhonov正規化手法を用いた非パラメトリック回帰アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-23T02:47:55Z) - Complexity-Free Generalization via Distributionally Robust Optimization [4.313143197674466]
分散ロバスト最適化(DRO)から解の一般化境界を得るための代替経路を提案する。
我々の DRO 境界は、あいまいな集合の幾何と真の損失関数との整合性に依存する。
特に、DRO距離計量として最大平均誤差を用いる場合、我々の分析は、我々の知識の最も良いところは、真の損失関数にのみ依存する文献における第一の一般化であることを示している。
論文 参考訳(メタデータ) (2021-06-21T15:19:52Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Stochastic Optimization of Areas Under Precision-Recall Curves with
Provable Convergence [66.83161885378192]
ROC(AUROC)と精度リコール曲線(AUPRC)の下の領域は、不均衡問題に対する分類性能を評価するための一般的な指標である。
本稿では,深層学習のためのAUPRCの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:22:21Z) - Parallel Stochastic Mirror Descent for MDPs [72.75921150912556]
無限水平マルコフ決定過程(MDP)における最適政策学習の問題を考える。
リプシッツ連続関数を用いた凸プログラミング問題に対してミラー・ディクセントの変種が提案されている。
このアルゴリズムを一般の場合において解析し,提案手法の動作中に誤差を蓄積しない収束率の推定値を得る。
論文 参考訳(メタデータ) (2021-02-27T19:28:39Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。