論文の概要: Observation-Free Attacks on Online Learning to Rank
- arxiv url: http://arxiv.org/abs/2509.22855v2
- Date: Fri, 03 Oct 2025 05:37:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 14:21:29.897632
- Title: Observation-Free Attacks on Online Learning to Rank
- Title(参考訳): オンライン学習における観察自由攻撃
- Authors: Sameep Chattopadhyay, Nikhil Karamchandani, Sharayu Moharir,
- Abstract要約: 我々は、広く使われているオンライン学習アルゴリズムのいくつかを攻撃するための新しいフレームワークを提案する。
本フレームワークは,T-o(T)ラウンドのトップKレコメンデーションリストに表示されるようにターゲット項目のセットをプロモートすると同時に,学習アルゴリズムにおける線形後悔を同時に引き起こすように設計されている。
- 参考スコア(独自算出の注目度): 5.004981323118799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online learning to rank (OLTR) plays a critical role in information retrieval and machine learning systems, with a wide range of applications in search engines and content recommenders. However, despite their extensive adoption, the susceptibility of OLTR algorithms to coordinated adversarial attacks remains poorly understood. In this work, we present a novel framework for attacking some of the widely used OLTR algorithms. Our framework is designed to promote a set of target items so that they appear in the list of top-K recommendations for T - o(T) rounds, while simultaneously inducing linear regret in the learning algorithm. We propose two novel attack strategies: CascadeOFA for CascadeUCB1 and PBMOFA for PBM-UCB . We provide theoretical guarantees showing that both strategies require only O(log T) manipulations to succeed. Additionally, we supplement our theoretical analysis with empirical results on real-world data.
- Abstract(参考訳): オンライン学習 to rank (OLTR) は情報検索や機械学習システムにおいて重要な役割を担い、検索エンジンやコンテンツレコメンデーターに幅広い応用がある。
しかし、広く採用されているにもかかわらず、敵攻撃の協調に対するOLTRアルゴリズムの感受性はよく分かっていない。
本研究では,広範に使用されているOLTRアルゴリズムを攻撃するための新しいフレームワークを提案する。
本フレームワークは,T-o(T)ラウンドのトップKレコメンデーションリストに表示されるようにターゲット項目のセットをプロモートすると同時に,学習アルゴリズムにおける線形後悔を同時に引き起こすように設計されている。
本稿では,CascadeOFA for CascadeUCB1とPBMOFA for PBM-UCBの2つの新しい攻撃戦略を提案する。
両戦略が成功するためにはO(log T)操作のみが必要であることを示す理論的保証を提供する。
さらに、実世界のデータに関する経験的な結果を用いて、理論的分析を補完する。
関連論文リスト
- Part I: Tricks or Traps? A Deep Dive into RL for LLM Reasoning [28.999963907637188]
本稿では,広く採用されている強化学習手法を体系的にレビューする。
特定の設定に合わせてRLテクニックを選択するための明確なガイドラインを示す。
また、2つのテクニックを最小限に組み合わせることで、批判のないポリシーの学習能力を解き放つことも明らかにした。
論文 参考訳(メタデータ) (2025-08-11T17:39:45Z) - Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Adversarial Attacks on Online Learning to Rank with Stochastic Click
Models [34.725468803108754]
本稿では,オンライン学習に対する敵対的攻撃のランク付けに関する最初の研究を提案する。
敵の目標は、オンライン学習がアルゴリズムをランク付けしてランキングリストの上位にターゲット項目を置くことを誤解し、サブ線形攻撃コストで時間水平線をT$に設定することである。
論文 参考訳(メタデータ) (2023-05-30T17:05:49Z) - Adversarial Attacks on Online Learning to Rank with Click Feedback [18.614785011987756]
オンライン学習のランク付けは、学習エージェントがアイテムの順序付きリストを選択し、ユーザクリックでフィードバックを受け取る、シーケンシャルな意思決定問題である。
本稿では,OLTRの複数変種に対する攻撃戦略について検討する。
本稿では,汎用クリックモデルに基づく任意のアルゴリズムに対する一般的な攻撃戦略を提案する。
論文 参考訳(メタデータ) (2023-05-26T16:28:26Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。