論文の概要: Wasserstein Distributionally Robust Online Learning
- arxiv url: http://arxiv.org/abs/2602.20403v1
- Date: Mon, 23 Feb 2026 22:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.543084
- Title: Wasserstein Distributionally Robust Online Learning
- Title(参考訳): 分散ロバストオンライン学習のWasserstein
- Authors: Guixian Chen, Salar Fattahi, Soroosh Shafiee,
- Abstract要約: 本研究では,リスク回避学習者が決定を逐次更新し,最悪の場合の分布に対処する分散ロバストなオンライン学習について検討する。
オンライン拡張は収束と計算の両方において大きな課題をもたらす。
重要な洞察は、最悪の予測問題、本質的に無限次元の最適化問題、古典的かつトラクタブルな予算配分問題の間の新しい接続である。
- 参考スコア(独自算出の注目度): 8.232962021356185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study distributionally robust online learning, where a risk-averse learner updates decisions sequentially to guard against worst-case distributions drawn from a Wasserstein ambiguity set centered at past observations. While this paradigm is well understood in the offline setting through Wasserstein Distributionally Robust Optimization (DRO), its online extension poses significant challenges in both convergence and computation. In this paper, we address these challenges. First, we formulate the problem as an online saddle-point stochastic game between a decision maker and an adversary selecting worst-case distributions, and propose a general framework that converges to a robust Nash equilibrium coinciding with the solution of the corresponding offline Wasserstein DRO problem. Second, we address the main computational bottleneck, which is the repeated solution of worst-case expectation problems. For the important class of piecewise concave loss functions, we propose a tailored algorithm that exploits problem geometry to achieve substantial speedups over state-of-the-art solvers such as Gurobi. The key insight is a novel connection between the worst-case expectation problem, an inherently infinite-dimensional optimization problem, and a classical and tractable budget allocation problem, which is of independent interest.
- Abstract(参考訳): リスク・アバース学習者は、過去の観測を主眼としたWasserstein ambiguityセットから引き出された最悪の分布に対処するために、決定を逐次更新する分散ロバストオンライン学習について検討する。
このパラダイムは、Wasserstein Distributionally Robust Optimization (DRO) を通じてオフライン設定でよく理解されているが、オンライン拡張は収束と計算の両方において大きな課題をもたらす。
本稿では,これらの課題に対処する。
まず、決定者と最悪の場合の分布を選択する敵とのオンラインサドルポイント確率ゲームとして問題を定式化し、対応するオフラインワッサースタインDRO問題の解と一致する堅牢なナッシュ均衡に収束する一般的なフレームワークを提案する。
第2に,最悪の予測問題の繰り返し解である計算ボトルネックに対処する。
部分的凹凸損失関数の重要クラスに対して,グロビのような最先端の解法に対する大幅な高速化を実現するために,問題幾何を利用した調整アルゴリズムを提案する。
重要な洞察は、最悪の予測問題、本質的に無限次元の最適化問題と、独立した関心を持つ古典的かつトラクタブルな予算配分問題との間の新しい接続である。
関連論文リスト
- A Secure and Private Distributed Bayesian Federated Learning Design [56.92336577799572]
DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の遅さ、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
本稿では,ビザンチンの堅牢性,プライバシー保護,収束促進を統合した新しいDFLフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-23T16:12:02Z) - Distributionally Robust Optimization with Adversarial Data Contamination [49.89480853499918]
凸リプシッツ損失関数を持つ一般化線形モデルに対するワッサーシュタイン-1 DRO 目標の最適化に焦点をあてる。
私たちの主な貢献は、データ汚染のトレーニングに対するロバストネスと分散シフトに対するロバストネスを統合した、新しいモデリングフレームワークです。
この研究は、データ汚染と分散シフトという2つの課題の下で学習するために、効率的な計算によって支援される最初の厳密な保証を確立する。
論文 参考訳(メタデータ) (2025-07-14T18:34:10Z) - Decentralized Multi-Task Online Convex Optimization Under Random Link
Failures [5.513958040574729]
我々は不均一な確率を持つランダムリンク障害に対する頑健な分散型サドルポイントアルゴリズムを開発した。
我々はアルゴリズムと分析を2点の帯域フィードバックシナリオに拡張する。
論文 参考訳(メタデータ) (2024-01-04T00:57:33Z) - Distributionally Robust Bayesian Optimization with $\varphi$-divergences [45.48814080654241]
我々は,$varphi$-divergencesにおけるデータシフトに対するロバスト性について考察する。
この設定におけるDRO-BO問題は有限次元最適化問題と等価であり、連続的な文脈でも証明可能な部分線型後悔境界で容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-03-04T04:34:52Z) - On the Convexity of Discrete Time Covariance Steering in Stochastic
Linear Systems with Wasserstein Terminal Cost [1.1602089225841632]
端末状態の共分散が上界であるとき、L"所有者部分順序に関して、この問題は一意に大域的最小化状態フィードバックゲインを許容することを示す。
本研究の結果は, 特殊制御設計ツールの開発に向けての段階を定めている。
論文 参考訳(メタデータ) (2021-03-25T03:24:52Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Robust Machine Learning via Privacy/Rate-Distortion Theory [34.28921458311185]
ロバストな機械学習の定式化は、敵対的な例に対するディープニューラルネットワークの一般的な脆弱性に対処するために現れている。
我々の研究は、最適ロバスト学習とプライバシ・ユーティリティ・トレードオフ問題との関連性を引き合いに出し、これは率歪み問題の一般化である。
この情報理論的な観点は、堅牢性とクリーンなデータパフォーマンスの基本的なトレードオフに光を当てています。
論文 参考訳(メタデータ) (2020-07-22T21:34:59Z) - Joint Wasserstein Distribution Matching [89.86721884036021]
JDM問題(Joint Distribution matching)は、2つのドメインの関節分布を一致させるために双方向マッピングを学習することを目的としており、多くの機械学習およびコンピュータビジョンアプリケーションで発生している。
2つの領域における関節分布のワッサーシュタイン距離を最小化することにより、JDM問題に対処することを提案する。
そこで我々は,難解な問題を簡単な最適化問題に還元する重要な定理を提案し,その解法を開発した。
論文 参考訳(メタデータ) (2020-03-01T03:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。