論文の概要: Adversaries in Online Learning Revisited: with applications in Robust
Optimization and Adversarial training
- arxiv url: http://arxiv.org/abs/2101.11443v1
- Date: Wed, 27 Jan 2021 14:23:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:40:15.290530
- Title: Adversaries in Online Learning Revisited: with applications in Robust
Optimization and Adversarial training
- Title(参考訳): オンライン学習における敵対者再訪:ロバスト最適化と敵対的トレーニングへの応用
- Authors: Sebastian Pokutta and Huan Xu
- Abstract要約: オンライン学習における「敵対的」の概念を再考し、堅牢な最適化と敵対的なトレーニング問題を解決することに動機づけられます。
我々は,想像遊びを用いた多種多様な問題クラスに対する一般的なアプローチを確立する。
- 参考スコア(独自算出の注目度): 55.30970087795483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the concept of "adversary" in online learning, motivated by
solving robust optimization and adversarial training using online learning
methods. While one of the classical setups in online learning deals with the
"adversarial" setup, it appears that this concept is used less rigorously,
causing confusion in applying results and insights from online learning.
Specifically, there are two fundamentally different types of adversaries,
depending on whether the "adversary" is able to anticipate the exogenous
randomness of the online learning algorithms. This is particularly relevant to
robust optimization and adversarial training because the adversarial sequences
are often anticipative, and many online learning algorithms do not achieve
diminishing regret in such a case.
We then apply this to solving robust optimization problems or (equivalently)
adversarial training problems via online learning and establish a general
approach for a large variety of problem classes using imaginary play. Here two
players play against each other, the primal player playing the decisions and
the dual player playing realizations of uncertain data. When the game
terminates, the primal player has obtained an approximately robust solution.
This meta-game allows for solving a large variety of robust optimization and
multi-objective optimization problems and generalizes the approach of
arXiv:1402.6361.
- Abstract(参考訳): オンライン学習における「敵」の概念を再考し,オンライン学習手法を用いた強固な最適化と敵意学習の解決を動機付ける。
オンライン学習における古典的なセットアップの1つは、"逆説的"なセットアップを扱うが、この概念は厳密に使われず、オンライン学習の結果や洞察を混乱させる。
具体的には、"敵"がオンライン学習アルゴリズムの外因性ランダム性を予測できるかどうかによって、基本的に異なる2種類の敵が存在する。
敵対的シーケンスはしばしば予測的であり、多くのオンライン学習アルゴリズムはそのようなケースで後悔の減少を達成しないため、これは堅牢な最適化と敵対的トレーニングに特に関連しています。
次に,オンライン学習によるロバスト最適化問題や(同等に)敵対的学習問題の解法に適用し,想像上の遊びを用いた多種多様な問題クラスに対する一般的なアプローチを確立した。
ここで2人のプレーヤーは互いに対戦し、プライマルプレーヤーは決定を、デュアルプレイヤーは不確定なデータの実現をプレイする。
ゲームが終了すると、プライマリプレーヤーはほぼ堅牢なソリューションを得ました。
このメタゲームは、様々な堅牢な最適化と多目的最適化の問題を解決し、arXiv:1402.6361のアプローチを一般化する。
関連論文リスト
- Learning-Augmented Algorithms for Online Concave Packing and Convex Covering Problems [4.9826534303287335]
本稿では,2つの基本的な最適化設定のための学習強化アルゴリズムフレームワークを提案する。
コンケーブ目的のオンラインパッキングでは、アドバイスと最先端のオンラインアルゴリズムを切り替える、単純だが包括的な戦略を提示します。
我々のアルゴリズムは、アドバイスが正確であるとき、そしてアドバイスが間違っていても、最先端の古典的オンラインアルゴリズムと同等のパフォーマンスを維持しながら、不可能な結果を破ることを示した。
論文 参考訳(メタデータ) (2024-11-13T04:27:25Z) - A Simple Learning-Augmented Algorithm for Online Packing with Concave Objectives [4.9826534303287335]
本稿では,線形制約付きオンラインパッキング問題に対する単純な学習拡張アルゴリズムの導入と解析を行う。
さらに、このような単純なブラックボックス解が最適である場合に必要かつ十分な条件を理解するという問題を提起する。
論文 参考訳(メタデータ) (2024-06-05T18:39:28Z) - Learning Mixture-of-Experts for General-Purpose Black-Box Discrete Optimization [45.243090644194695]
この記事では、完全なデータ駆動学習最適化(L2O)アプローチを通じてトレーニングされた、新しい汎用ニューラルネットワークMEGOを紹介する。
MEGOは、トレーニング問題の解決からの経験に基づいて訓練された、エキスパートの混合物で構成されている。
MEGOは、高品質なソリューションを生成するために、関連する専門家モデルを積極的に選択する。
論文 参考訳(メタデータ) (2024-05-29T08:41:08Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Efficient Methods for Non-stationary Online Learning [67.3300478545554]
本稿では, 動的後悔と適応的後悔を最適化する効率的な手法を提案し, ラウンド当たりの投影回数を$mathcalO(log T)$から$ $1$まで削減した。
本手法は,パラメータフリーオンライン学習において開発された還元機構を基礎として,非定常オンライン手法に非自明なツイストを必要とする。
論文 参考訳(メタデータ) (2023-09-16T07:30:12Z) - On Computable Online Learning [8.655294504286635]
我々は、Littlestone次元がc-online学習の最適誤り境界をもはや特徴づけていないことを示す。
c-online 学習は不適切な CPAC 学習と同じくらい困難であることを示す。
論文 参考訳(メタデータ) (2023-02-08T22:09:06Z) - Strategizing against Learners in Bayesian Games [74.46970859427907]
プレイヤーの1人である学習者が無学習の学習戦略を採用する2人プレイヤゲームについて検討した。
一般のベイズゲームでは,学習者と学習者の双方の報酬の支払いが,そのタイプに依存する可能性がある。
論文 参考訳(メタデータ) (2022-05-17T18:10:25Z) - Adversarial Deep Learning for Online Resource Allocation [12.118811903399951]
私たちはディープニューラルネットワークを使って、リソース割り当てと価格の問題に対するオンラインアルゴリズムをゼロから学習しています。
私たちの研究は、最悪のパフォーマンス保証の観点から、ディープニューラルネットワークを使用してオンラインアルゴリズムを設計した初めてのものです。
論文 参考訳(メタデータ) (2021-11-19T15:48:43Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。