論文の概要: Multi-Task Federated Reinforcement Learning with Adversaries
- arxiv url: http://arxiv.org/abs/2103.06473v1
- Date: Thu, 11 Mar 2021 05:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 12:14:36.515495
- Title: Multi-Task Federated Reinforcement Learning with Adversaries
- Title(参考訳): 敵とのマルチタスクフェデレーション強化学習
- Authors: Aqeel Anwar, Arijit Raychowdhury
- Abstract要約: 強化学習アルゴリズムは敵からの深刻な脅威となる。
本稿では,多タスク連関強化学習アルゴリズムの解析を行う。
攻撃性能が向上した適応攻撃法を提案する。
- 参考スコア(独自算出の注目度): 2.6080102941802106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning algorithms, just like any other Machine learning
algorithm pose a serious threat from adversaries. The adversaries can
manipulate the learning algorithm resulting in non-optimal policies. In this
paper, we analyze the Multi-task Federated Reinforcement Learning algorithms,
where multiple collaborative agents in various environments are trying to
maximize the sum of discounted return, in the presence of adversarial agents.
We argue that the common attack methods are not guaranteed to carry out a
successful attack on Multi-task Federated Reinforcement Learning and propose an
adaptive attack method with better attack performance. Furthermore, we modify
the conventional federated reinforcement learning algorithm to address the
issue of adversaries that works equally well with and without the adversaries.
Experimentation on different small to mid-size reinforcement learning problems
show that the proposed attack method outperforms other general attack methods
and the proposed modification to federated reinforcement learning algorithm was
able to achieve near-optimal policies in the presence of adversarial agents.
- Abstract(参考訳): 強化学習アルゴリズムは、他の機械学習アルゴリズムと同様に、敵から深刻な脅威を受ける。
敵は、最適でないポリシーをもたらす学習アルゴリズムを操作できる。
本稿では,様々な環境における複数の協調エージェントが,敵対エージェントの存在下での割引リターンの合計を最大化しようとするマルチタスクフェデレーション強化学習アルゴリズムを解析する。
我々は,マルチタスク連関強化学習を成功させるには一般的な攻撃手法は保証されないと主張し,攻撃性能を向上させる適応攻撃法を提案する。
さらに,従来のfederated reinforcement learningアルゴリズムを改良して,敵と同等に機能する敵問題に対処する。
小中小の強化学習問題に対する実験の結果,提案手法は他の一般的な攻撃手法よりも優れており,共役強化学習アルゴリズムの修正により,敵エージェントの存在下での最適に近い方針が実現できた。
関連論文リスト
- Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - PGN: A perturbation generation network against deep reinforcement
learning [8.546103661706391]
エージェントを攻撃するための効果的な敵例を作成するための新しい生成モデルを提案する。
深層強化学習の特異性を考慮して,ステルスネスの尺度として行動整合性比を提案する。
論文 参考訳(メタデータ) (2023-12-20T10:40:41Z) - Attacking and Defending Deep Reinforcement Learning Policies [3.6985039575807246]
本研究では, DRL ポリシーのロバストな最適化の観点から, 敵攻撃に対するロバスト性について検討する。
本稿では,環境との相互作用を伴わずにポリシーの戻りを最小化しようとする欲求攻撃アルゴリズムと,最大限の形式で敵の訓練を行う防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:47:54Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Improving Safety in Deep Reinforcement Learning using Unsupervised
Action Planning [4.2955354157580325]
深層強化学習(Deep RL)における重要な課題の1つは、トレーニングとテストフェーズの両方で安全性を確保することである。
そこで本稿では,オンライン強化学習アルゴリズムの安全性を向上させるために,教師なし行動計画の新たな手法を提案する。
提案アルゴリズムは,離散制御と連続制御の両問題において,複数のベースラインと比較して高い報酬を得られることを示す。
論文 参考訳(メタデータ) (2021-09-29T10:26:29Z) - Robust Federated Learning with Attack-Adaptive Aggregation [45.60981228410952]
フェデレート学習は、モデル中毒やバックドア攻撃など、様々な攻撃に対して脆弱である。
本研究では,ロバスト学習のためのアタック・アダプティブ・アグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2021-02-10T04:23:23Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Augmentation Policy Search for Domain and Cross-Lingual
Generalization in Reading Comprehension [96.62963688510035]
理解モデルを読むことは、しばしばトレーニングデータセットのニュアンスに過度に適合し、敵対的な評価に失敗する。
本稿では,複数の効果的な敵と自動データ拡張ポリシー探索手法を提案し,対角的評価に対して,読解理解モデルをより堅牢にすることを目的とする。
論文 参考訳(メタデータ) (2020-04-13T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。