論文の概要: Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense
- arxiv url: http://arxiv.org/abs/2002.08000v2
- Date: Fri, 21 Feb 2020 22:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:36:23.446316
- Title: Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense
- Title(参考訳): 確率的バンディットに対する行動マニピュレーション攻撃:攻撃と防御
- Authors: Guanlin Liu and Lifeng lai
- Abstract要約: 我々はアクション・マニピュレーション・アタックと呼ばれる新しいタイプの攻撃を導入する。
この攻撃では、相手が選択したアクション信号を変更することができる。
このような攻撃に対して防御するために,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 45.408568528354216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the broad range of applications of stochastic multi-armed bandit
model, understanding the effects of adversarial attacks and designing bandit
algorithms robust to attacks are essential for the safe applications of this
model. In this paper, we introduce a new class of attack named
action-manipulation attack. In this attack, an adversary can change the action
signal selected by the user. We show that without knowledge of mean rewards of
arms, our proposed attack can manipulate Upper Confidence Bound (UCB)
algorithm, a widely used bandit algorithm, into pulling a target arm very
frequently by spending only logarithmic cost. To defend against this class of
attacks, we introduce a novel algorithm that is robust to action-manipulation
attacks when an upper bound for the total attack cost is given. We prove that
our algorithm has a pseudo-regret upper bounded by $\mathcal{O}(\max\{\log
T,A\})$, where $T$ is the total number of rounds and $A$ is the upper bound of
the total attack cost.
- Abstract(参考訳): 確率的マルチアームバンディットモデルの適用範囲が広いため、敵攻撃の影響を理解し、攻撃に頑健なバンディットアルゴリズムを設計することは、このモデルの安全な応用には不可欠である。
本稿では,アクション・マニピュレーション・アタックと呼ばれる新たな攻撃方法を提案する。
この攻撃では、相手が選択したアクション信号を変更することができる。
提案手法では,平均的な腕の報酬の知識がなければ,広く用いられているバンディットアルゴリズムであるuper confidence bound(ucb)アルゴリズムを操作でき,対数コストのみを使わずに目標の腕を非常に頻繁に引っ張ることができる。
このような攻撃に対して防御するために,攻撃コストの上限が与えられた場合に,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
我々は、このアルゴリズムが$\mathcal{o}(\max\{\log t,a\})$ で有界な擬似レグレット上限を持つことを証明し、ここで$t$ はラウンドの総数、$a$ は総攻撃コストの上限であることを示した。
関連論文リスト
- Adversarial Attacks on Adversarial Bandits [10.891819703383408]
攻撃者は,任意の非相対的帯域幅アルゴリズムをミスリードして,準最適目標アームを選択することができることを示す。
この結果は、現実世界の盗賊ベースのシステムにおける重要なセキュリティ上の懸念を意味する。
論文 参考訳(メタデータ) (2023-01-30T00:51:39Z) - Efficient Action Poisoning Attacks on Linear Contextual Bandits [41.1063033715314]
我々は新たな種類の攻撃を提案している。
相手は、エージェントが選択したアクション信号を変更することができる。
ホワイトボックスとブラックボックスの設定の両方において、提案した攻撃スキームはLinUCBエージェントにターゲットアームを非常に頻繁に引くように強制することができることを示す。
論文 参考訳(メタデータ) (2021-12-10T07:39:07Z) - When Are Linear Stochastic Bandits Attackable? [47.25702824488642]
本稿では,$k$のリニアバンディット環境の攻撃性について検討する。
本稿では,LinUCBとロバスト位相除去に対する2段階攻撃法を提案する。
論文 参考訳(メタデータ) (2021-10-18T04:12:09Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Robust Stochastic Linear Contextual Bandits Under Adversarial Attacks [81.13338949407205]
近年の研究では、最適なバンディットアルゴリズムは敵攻撃に対して脆弱であり、攻撃の有無で完全に失敗する可能性があることが示されている。
既存の堅牢なバンディットアルゴリズムは、報酬の攻撃下では、非コンテキスト設定でのみ機能する。
完全適応的かつ全能的な攻撃下での線形文脈帯域設定のための最初の頑健な帯域幅アルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-05T22:20:34Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。