論文の概要: Efficient Action Poisoning Attacks on Linear Contextual Bandits
- arxiv url: http://arxiv.org/abs/2112.05367v1
- Date: Fri, 10 Dec 2021 07:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 22:48:48.306568
- Title: Efficient Action Poisoning Attacks on Linear Contextual Bandits
- Title(参考訳): リニアコンテクストバンディットに対する効率的な行動中毒攻撃
- Authors: Guanlin Liu and Lifeng Lai
- Abstract要約: 我々は新たな種類の攻撃を提案している。
相手は、エージェントが選択したアクション信号を変更することができる。
ホワイトボックスとブラックボックスの設定の両方において、提案した攻撃スキームはLinUCBエージェントにターゲットアームを非常に頻繁に引くように強制することができることを示す。
- 参考スコア(独自算出の注目度): 41.1063033715314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contextual bandit algorithms have many applicants in a variety of scenarios.
In order to develop trustworthy contextual bandit systems, understanding the
impacts of various adversarial attacks on contextual bandit algorithms is
essential. In this paper, we propose a new class of attacks: action poisoning
attacks, where an adversary can change the action signal selected by the agent.
We design action poisoning attack schemes against linear contextual bandit
algorithms in both white-box and black-box settings. We further analyze the
cost of the proposed attack strategies for a very popular and widely used
bandit algorithm: LinUCB. We show that, in both white-box and black-box
settings, the proposed attack schemes can force the LinUCB agent to pull a
target arm very frequently by spending only logarithm cost.
- Abstract(参考訳): コンテキストバンディットアルゴリズムは様々なシナリオで多くの応募者を持つ。
信頼できるコンテキストバンディットシステムを開発するためには,コンテキストバンディットアルゴリズムに対する様々な敵の攻撃の影響を理解することが不可欠である。
本稿では,エージェントが選択した行動信号を敵が変更できる行動中毒攻撃という,新たな攻撃方法を提案する。
我々は,ホワイトボックスとブラックボックスの両方の設定において,線形文脈バンディットアルゴリズムに対する行動中毒攻撃スキームを設計する。
我々はさらに、非常に人気があり広く使われているバンディットアルゴリズムLinUCBの攻撃戦略のコストを分析する。
ホワイトボックスとブラックボックスの両方の設定において、提案された攻撃方式により、linucbエージェントは対数コストのみを使用してターゲットアームを非常に頻繁に引っ張ることができる。
関連論文リスト
- Adversarial Attacks on Adversarial Bandits [10.891819703383408]
攻撃者は,任意の非相対的帯域幅アルゴリズムをミスリードして,準最適目標アームを選択することができることを示す。
この結果は、現実世界の盗賊ベースのシステムにおける重要なセキュリティ上の懸念を意味する。
論文 参考訳(メタデータ) (2023-01-30T00:51:39Z) - When Are Linear Stochastic Bandits Attackable? [47.25702824488642]
本稿では,$k$のリニアバンディット環境の攻撃性について検討する。
本稿では,LinUCBとロバスト位相除去に対する2段階攻撃法を提案する。
論文 参考訳(メタデータ) (2021-10-18T04:12:09Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Robust Stochastic Linear Contextual Bandits Under Adversarial Attacks [81.13338949407205]
近年の研究では、最適なバンディットアルゴリズムは敵攻撃に対して脆弱であり、攻撃の有無で完全に失敗する可能性があることが示されている。
既存の堅牢なバンディットアルゴリズムは、報酬の攻撃下では、非コンテキスト設定でのみ機能する。
完全適応的かつ全能的な攻撃下での線形文脈帯域設定のための最初の頑健な帯域幅アルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-05T22:20:34Z) - Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense [45.408568528354216]
我々はアクション・マニピュレーション・アタックと呼ばれる新しいタイプの攻撃を導入する。
この攻撃では、相手が選択したアクション信号を変更することができる。
このような攻撃に対して防御するために,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-02-19T04:09:15Z) - Adversarial Attacks on Linear Contextual Bandits [87.08004581867537]
悪意のあるエージェントは、望ましい行動を実行するためにバンディットアルゴリズムを攻撃するインセンティブを持つ可能性がある。
悪意のあるエージェントは、線形コンテキストのバンドイットアルゴリズムに任意のアーム$T - o(T)$倍を$T$ステップで引き出すように強制することができる。
また,悪意のあるエージェントが単一コンテキストにおける帯域幅アルゴリズムの動作に影響を与えることに関心がある場合についても検討する。
論文 参考訳(メタデータ) (2020-02-10T15:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。