論文の概要: Inception: Efficiently Computable Misinformation Attacks on Markov Games
- arxiv url: http://arxiv.org/abs/2406.17114v1
- Date: Mon, 24 Jun 2024 20:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 18:21:22.745019
- Title: Inception: Efficiently Computable Misinformation Attacks on Markov Games
- Title(参考訳): インセプション:マルコフゲームにおける効果的に計算可能な誤情報攻撃
- Authors: Jeremy McMahan, Young Wu, Yudong Chen, Xiaojin Zhu, Qiaomin Xie,
- Abstract要約: 情報非対称性と誤情報によるマルコフゲームに対するセキュリティ脅威について検討する。
我々は、攻撃者の最適な最悪のケースポリシーを計算するために、最悪のケース合理性と現在のアルゴリズムの下で被害者のポリシーを導出する。
我々の研究は、誤った情報の下での標準的なゲームの仮定からセキュリティの脆弱性を露呈する。
- 参考スコア(独自算出の注目度): 14.491458698581038
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study security threats to Markov games due to information asymmetry and misinformation. We consider an attacker player who can spread misinformation about its reward function to influence the robust victim player's behavior. Given a fixed fake reward function, we derive the victim's policy under worst-case rationality and present polynomial-time algorithms to compute the attacker's optimal worst-case policy based on linear programming and backward induction. Then, we provide an efficient inception ("planting an idea in someone's mind") attack algorithm to find the optimal fake reward function within a restricted set of reward functions with dominant strategies. Importantly, our methods exploit the universal assumption of rationality to compute attacks efficiently. Thus, our work exposes a security vulnerability arising from standard game assumptions under misinformation.
- Abstract(参考訳): 情報非対称性と誤情報によるマルコフゲームに対するセキュリティ脅威について検討する。
本研究では,その報酬関数に関する誤報を拡散し,被害者の行動に影響を及ぼす攻撃者について考察する。
固定された擬似報酬関数が与えられた場合、最悪のケース合理性の下で被害者のポリシーを導出し、線形プログラミングと後方帰納に基づく攻撃者の最適最悪のケースポリシーを計算するための多項式時間アルゴリズムを提示する。
そこで,本研究では,最優先戦略を持つ報酬関数の制限セット内で,最適な報酬関数を見つけるための効果的なインセプション(アイデアを心に植え付ける)アタックアルゴリズムを提案する。
重要なことは、攻撃を効率的に計算するために合理性という普遍的な仮定を利用する方法である。
そこで本研究は,誤った情報の下での標準的なゲーム仮定から生じるセキュリティ上の脆弱性を明らかにする。
関連論文リスト
- REBEL: A Regularization-Based Solution for Reward Overoptimization in Robotic Reinforcement Learning from Human Feedback [61.54791065013767]
報酬関数とユーザの意図、価値観、社会的規範の相違は、現実世界で破滅的なものになる可能性がある。
人間の嗜好から報酬関数を学習することで、このミスアライメント作業を軽減するための現在の方法。
本稿では,ロボットRLHFフレームワークにおける報酬正規化の新たな概念を提案する。
論文 参考訳(メタデータ) (2023-12-22T04:56:37Z) - Optimal Attack and Defense for Reinforcement Learning [11.36770403327493]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - A Tale of HodgeRank and Spectral Method: Target Attack Against Rank
Aggregation Is the Fixed Point of Adversarial Game [153.74942025516853]
ランクアグリゲーション手法の本質的な脆弱性は文献ではよく研究されていない。
本稿では,ペアデータの変更による集計結果の指定を希望する目的のある敵に焦点をあてる。
提案した標的攻撃戦略の有効性は,一連の玩具シミュレーションと実世界のデータ実験によって実証された。
論文 参考訳(メタデータ) (2022-09-13T05:59:02Z) - On Almost-Sure Intention Deception Planning that Exploits Imperfect
Observers [24.11353445650682]
意図的な騙しは、エージェントの意図や目的に対する間違った信念に敵を欺く戦略を計算することを含む。
本稿では,意図的騙しを伴う確率的計画問題の類型を考察し,防御者の限定的な感覚的モダリティをどのように活用するかを考察する。
論文 参考訳(メタデータ) (2022-09-01T16:38:03Z) - Understanding the Limits of Poisoning Attacks in Episodic Reinforcement
Learning [36.30086280732181]
本稿では,<sup>RL</sup>における目標政策に向けて,幻想的順序最適学習アルゴリズムを操作するための毒攻撃について検討する。
攻撃の効果は、報酬が束縛されているか、無束縛されているかによって大きく左右される。
論文 参考訳(メタデータ) (2022-08-29T15:10:14Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Robust Stochastic Linear Contextual Bandits Under Adversarial Attacks [81.13338949407205]
近年の研究では、最適なバンディットアルゴリズムは敵攻撃に対して脆弱であり、攻撃の有無で完全に失敗する可能性があることが示されている。
既存の堅牢なバンディットアルゴリズムは、報酬の攻撃下では、非コンテキスト設定でのみ機能する。
完全適応的かつ全能的な攻撃下での線形文脈帯域設定のための最初の頑健な帯域幅アルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-05T22:20:34Z) - The Hammer and the Nut: Is Bilevel Optimization Really Needed to Poison
Linear Classifiers? [27.701693158702753]
データ中毒は特に厄介な中毒攻撃のサブセットである。
直感的だが効率的なデータ中毒対策の枠組みを提案する。
我々のフレームワークは攻撃者の目的に匹敵する、あるいはさらに優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2021-03-23T09:08:10Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - Defense Against Reward Poisoning Attacks in Reinforcement Learning [29.431349181232203]
我々は、強化学習における報酬中毒に対する防衛戦略について研究する。
最適な防衛方針を導出するための最適化フレームワークを提案する。
提案した最適化問題に対する解決策である防衛方針が,性能保証を証明可能であることを示す。
論文 参考訳(メタデータ) (2021-02-10T23:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。