論文の概要: Wasserstein Distributionally Robust Nonparametric Regression
- arxiv url: http://arxiv.org/abs/2505.07967v1
- Date: Mon, 12 May 2025 18:07:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.298177
- Title: Wasserstein Distributionally Robust Nonparametric Regression
- Title(参考訳): ワッサーシュタイン分布のロバスト非パラメトリック回帰
- Authors: Changyu Liu, Yuling Jiao, Junhui Wang, Jian Huang,
- Abstract要約: 本稿では、ワッサーシュタイン分布性非パラメトリック推定器の一般化特性について検討する。
我々は,過度の局地的最悪のリスクに対して,非漸近的エラー境界を確立する。
提案した推定器のロバスト性はシミュレーション研究を通じて評価し,MNISTデータセットへの適用例を示した。
- 参考スコア(独自算出の注目度): 9.65010022854885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributionally robust optimization has become a powerful tool for prediction and decision-making under model uncertainty. By focusing on the local worst-case risk, it enhances robustness by identifying the most unfavorable distribution within a predefined ambiguity set. While extensive research has been conducted in parametric settings, studies on nonparametric frameworks remain limited. This paper studies the generalization properties of Wasserstein distributionally robust nonparametric estimators, with particular attention to the impact of model misspecification, where non-negligible discrepancies between the estimation function space and target function can impair generalization performance. We establish non-asymptotic error bounds for the excess local worst-case risk by analyzing the regularization effects induced by distributional perturbations and employing feedforward neural networks with Lipschitz constraints. These bounds illustrate how uncertainty levels and neural network structures influence generalization performance and are applicable to both Lipschitz and quadratic loss functions. Furthermore, we investigate the Lagrangian relaxation of the local worst-case risk and derive corresponding non-asymptotic error bounds for these estimators. The robustness of the proposed estimator is evaluated through simulation studies and illustrated with an application to the MNIST dataset.
- Abstract(参考訳): 分散ロバストな最適化は、モデル不確実性の下での予測と意思決定の強力なツールとなっている。
局所的な最悪のリスクに焦点を当てることで、事前定義されたあいまいさセット内で最も好ましくない分布を特定することにより、堅牢性を高める。
パラメトリック・セッティングにおいて広範な研究が行われてきたが、非パラメトリック・フレームワークの研究は依然として限られている。
本稿では、ワッサーシュタイン分布性非パラメトリック推定器の一般化特性について検討し、特にモデル不特定性の影響に注目し、推定関数空間と対象関数との非無視的不一致が一般化性能を損なう可能性がある。
分布摂動による正規化効果を解析し,リプシッツ制約によるフィードフォワードニューラルネットワークを用いることにより,過度の局部最悪のリスクに対する非漸近誤差境界を確立する。
これらの境界は、不確実性レベルとニューラルネットワーク構造が一般化性能にどのように影響するかを示し、リプシッツと二次損失関数の両方に適用できる。
さらに、局所的な最悪のケースリスクのラグランジアン緩和について検討し、これらの推定器に対して対応する非漸近誤差境界を導出する。
提案した推定器のロバスト性はシミュレーション研究を通じて評価し,MNISTデータセットへの適用例を示した。
関連論文リスト
- Active operator learning with predictive uncertainty quantification for partial differential equations [6.519088943440059]
本研究では,訓練中に観測されたモデル誤差に校正された予測的不確実性推定を用いたディープオペレータネットワーク(DeepONets)の不確実性定量化手法を開発した。
不確実性フレームワークは、既存のアンサンブルアプローチとは対照的に、単一のネットワークを使用して動作し、トレーニングと推論中に最小限のオーバーヘッドを導入する。
一連の偏微分方程式(PDE)問題に対する不確実性を考慮したモデルの評価を行い、モデル予測が偏りがなく、非歪で、PDEに対する解を正確に再現していることを示す。
論文 参考訳(メタデータ) (2025-03-05T04:48:14Z) - Error Bounds of Supervised Classification from Information-Theoretic Perspective [0.0]
我々は、情報理論の観点から、教師付き分類にディープニューラルネットワークを使用する場合の予測リスクのバウンダリについて検討する。
経験的リスクをさらに分解したモデルリスクとフィッティングエラーを導入する。
論文 参考訳(メタデータ) (2024-06-07T01:07:35Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Wasserstein Distributionally Robust Estimation in High Dimensions: Performance Analysis and Optimal Hyperparameter Tuning [2.4578723416255754]
分散ロバスト最適化(DRO)は不確実性の下での見積もりの強力なフレームワークとなっている。
本稿では,DROに基づく線形回帰法を提案し,その中心的問題,すなわちロバストネス半径を最適に選択する方法を提案する。
本手法はクロスバリデーションと同じ効果を示すが,計算コストのごく一部で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:02:59Z) - Adversarial robustness of sparse local Lipschitz predictors [12.525959293825318]
本研究では、線形予測器と非線形表現写像からなるパラメトリック関数の対角ロバスト性について研究する。
緩やかな局所リプシッツネスを用いて安定性を把握し、局所摂動による予測器の有効次元を減少させる。
論文 参考訳(メタデータ) (2022-02-26T19:48:07Z) - Improving Generalization via Uncertainty Driven Perturbations [107.45752065285821]
トレーニングデータポイントの不確実性による摂動について考察する。
損失駆動摂動とは異なり、不確実性誘導摂動は決定境界を越えてはならない。
線形モデルにおいて,UDPがロバスト性マージン決定を達成することが保証されていることを示す。
論文 参考訳(メタデータ) (2022-02-11T16:22:08Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。