論文の概要: Adversarial Attacks on Online Learning to Rank with Click Feedback
- arxiv url: http://arxiv.org/abs/2305.17071v1
- Date: Fri, 26 May 2023 16:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 13:25:33.640969
- Title: Adversarial Attacks on Online Learning to Rank with Click Feedback
- Title(参考訳): クリックフィードバックでランク付けするオンライン学習に対する敵対的攻撃
- Authors: Jinhang Zuo, Zhiyao Zhang, Zhiyong Wang, Shuai Li, Mohammad
Hajiesmaili, Adam Wierman
- Abstract要約: オンライン学習のランク付けは、学習エージェントがアイテムの順序付きリストを選択し、ユーザクリックでフィードバックを受け取る、シーケンシャルな意思決定問題である。
本稿では,OLTRの複数変種に対する攻撃戦略について検討する。
本稿では,汎用クリックモデルに基づく任意のアルゴリズムに対する一般的な攻撃戦略を提案する。
- 参考スコア(独自算出の注目度): 18.614785011987756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online learning to rank (OLTR) is a sequential decision-making problem where
a learning agent selects an ordered list of items and receives feedback through
user clicks. Although potential attacks against OLTR algorithms may cause
serious losses in real-world applications, little is known about adversarial
attacks on OLTR. This paper studies attack strategies against multiple variants
of OLTR. Our first result provides an attack strategy against the UCB algorithm
on classical stochastic bandits with binary feedback, which solves the key
issues caused by bounded and discrete feedback that previous works can not
handle. Building on this result, we design attack algorithms against UCB-based
OLTR algorithms in position-based and cascade models. Finally, we propose a
general attack strategy against any algorithm under the general click model.
Each attack algorithm manipulates the learning agent into choosing the target
attack item $T-o(T)$ times, incurring a cumulative cost of $o(T)$. Experiments
on synthetic and real data further validate the effectiveness of our proposed
attack algorithms.
- Abstract(参考訳): オンラインラーニング・トゥ・ランク(oltr)は、学習エージェントがアイテムの順序リストを選択し、ユーザークリックを通じてフィードバックを受け取る、逐次的な意思決定問題である。
OLTRアルゴリズムに対する潜在的な攻撃は、現実世界のアプリケーションに重大な損失をもたらす可能性があるが、OLTRに対する敵攻撃についてはほとんど知られていない。
本稿では,OLTRの複数変種に対する攻撃戦略について検討する。
最初の結果から,従来の確率的帯域幅に対するUCBアルゴリズムに対する攻撃戦略をバイナリフィードバックで実現し,従来の作業では処理できない有界および離散的なフィードバックによって生じる重要な問題を解消する。
この結果に基づいて、位置ベースおよびカスケードモデルにおけるUCBベースのOLTRアルゴリズムに対する攻撃アルゴリズムを設計する。
最後に,汎用クリックモデルに基づく任意のアルゴリズムに対する汎用攻撃戦略を提案する。
各攻撃アルゴリズムは学習エージェントを操作して目標攻撃項目の$T-o(T)$倍を選択し、累積コスト$o(T)$を発生させる。
合成データと実データを用いた実験により,提案手法の有効性をさらに検証した。
関連論文リスト
- Reward Poisoning Attack Against Offline Reinforcement Learning [5.057241745123681]
機能近似のためのディープニューラルネットワークを用いた一般オフライン強化学習に対する報酬中毒攻撃の問題点について検討する。
我々の知る限り、一般のオフラインRL設定における最初のブラックボックス報酬中毒攻撃を提案する。
論文 参考訳(メタデータ) (2024-02-15T04:08:49Z) - Adversarial Attacks on Online Learning to Rank with Stochastic Click
Models [34.725468803108754]
本稿では,オンライン学習に対する敵対的攻撃のランク付けに関する最初の研究を提案する。
敵の目標は、オンライン学習がアルゴリズムをランク付けしてランキングリストの上位にターゲット項目を置くことを誤解し、サブ線形攻撃コストで時間水平線をT$に設定することである。
論文 参考訳(メタデータ) (2023-05-30T17:05:49Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Action-Manipulation Attacks Against Stochastic Bandits: Attacks and
Defense [45.408568528354216]
我々はアクション・マニピュレーション・アタックと呼ばれる新しいタイプの攻撃を導入する。
この攻撃では、相手が選択したアクション信号を変更することができる。
このような攻撃に対して防御するために,アクション操作攻撃に対して堅牢な新しいアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-02-19T04:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。