論文の概要: Adversarial Attacks on Online Learning to Rank with Stochastic Click
Models
- arxiv url: http://arxiv.org/abs/2305.19218v1
- Date: Tue, 30 May 2023 17:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 14:45:02.316860
- Title: Adversarial Attacks on Online Learning to Rank with Stochastic Click
Models
- Title(参考訳): 確率的クリックモデルを用いたオンライン学習における逆攻撃
- Authors: Zichen Wang, Rishab Balasubramanian, Hui Yuan, Chenyu Song, Mengdi
Wang, Huazheng Wang
- Abstract要約: 本稿では,オンライン学習に対する敵対的攻撃のランク付けに関する最初の研究を提案する。
敵の目標は、オンライン学習がアルゴリズムをランク付けしてランキングリストの上位にターゲット項目を置くことを誤解し、サブ線形攻撃コストで時間水平線をT$に設定することである。
- 参考スコア(独自算出の注目度): 34.725468803108754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the first study of adversarial attacks on online learning to rank.
The goal of the adversary is to misguide the online learning to rank algorithm
to place the target item on top of the ranking list linear times to time
horizon $T$ with a sublinear attack cost. We propose generalized list poisoning
attacks that perturb the ranking list presented to the user. This strategy can
efficiently attack any no-regret ranker in general stochastic click models.
Furthermore, we propose a click poisoning-based strategy named attack-then-quit
that can efficiently attack two representative OLTR algorithms for stochastic
click models. We theoretically analyze the success and cost upper bound of the
two proposed methods. Experimental results based on synthetic and real-world
data further validate the effectiveness and cost-efficiency of the proposed
attack strategies.
- Abstract(参考訳): 本稿では,オンライン学習のランク付けに対する敵意攻撃に関する最初の研究を提案する。
敵の目標は、オンライン学習がアルゴリズムをランク付けしてランキングリストの上位にターゲット項目を置くことを誤解し、サブ線形攻撃コストで時間水平線をT$に設定することである。
本稿では,ユーザに提示されるランキングリストを乱す汎用的なリスト中毒攻撃を提案する。
この戦略は、一般的な確率クリックモデルにおいて、任意の非回帰ランカを効率的に攻撃することができる。
さらに,確率的クリックモデルのための2つの代表的なoltrアルゴリズムを効率的に攻撃できる,attack-then-quitと呼ばれるクリック中毒ベースの戦略を提案する。
提案手法の成功とコストの上限を理論的に解析した。
合成および実世界のデータに基づく実験結果は,提案手法の有効性とコスト効率をさらに検証する。
関連論文リスト
- Adversarial Attacks on Online Learning to Rank with Click Feedback [18.614785011987756]
オンライン学習のランク付けは、学習エージェントがアイテムの順序付きリストを選択し、ユーザクリックでフィードバックを受け取る、シーケンシャルな意思決定問題である。
本稿では,OLTRの複数変種に対する攻撃戦略について検討する。
本稿では,汎用クリックモデルに基づく任意のアルゴリズムに対する一般的な攻撃戦略を提案する。
論文 参考訳(メタデータ) (2023-05-26T16:28:26Z) - Order-Disorder: Imitation Adversarial Attacks for Black-box Neural
Ranking Models [48.93128542994217]
ブラックボックスニューラルパスランキングモデルに対する模倣逆攻撃を提案する。
重要クエリ/候補を列挙することで,対象経路ランキングモデルを透明化し,模倣することができることを示す。
また,一対の目的関数によって強化された革新的な勾配に基づく攻撃手法を提案し,敵の引き金を発生させる。
論文 参考訳(メタデータ) (2022-09-14T09:10:07Z) - A Tale of HodgeRank and Spectral Method: Target Attack Against Rank
Aggregation Is the Fixed Point of Adversarial Game [153.74942025516853]
ランクアグリゲーション手法の本質的な脆弱性は文献ではよく研究されていない。
本稿では,ペアデータの変更による集計結果の指定を希望する目的のある敵に焦点をあてる。
提案した標的攻撃戦略の有効性は,一連の玩具シミュレーションと実世界のデータ実験によって実証された。
論文 参考訳(メタデータ) (2022-09-13T05:59:02Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Poisoning Attack against Estimating from Pairwise Comparisons [140.9033911097995]
攻撃者はランクリストを操作するための強い動機と動機を持っている。
ペアワイズランキングアルゴリズムに対するデータ中毒攻撃は、ローダとアタッカーの間の動的および静的ゲームとして形式化することができる。
本稿では、2つの効率的な毒殺攻撃アルゴリズムを提案し、関連する理論的保証を確立する。
論文 参考訳(メタデータ) (2021-07-05T08:16:01Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。