論文の概要: Practical Adversarial Attacks on Stochastic Bandits via Fake Data Injection
- arxiv url: http://arxiv.org/abs/2505.21938v2
- Date: Sat, 31 May 2025 07:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 13:48:30.028017
- Title: Practical Adversarial Attacks on Stochastic Bandits via Fake Data Injection
- Title(参考訳): フェイクデータ注入による確率帯域攻撃
- Authors: Qirun Zeng, Eric He, Richard Hoffmann, Xuchuang Wang, Jinhang Zuo,
- Abstract要約: 盗賊に対する敵対的な攻撃は伝統的にいくつかの非現実的な仮定に依存してきた。
現実的な敵の制約を反映したより実用的な脅威モデルを提案する。
我々は、このモデルの下で効率的な攻撃戦略を設計し、大小制約と時間的制約の両方に明示的に対処する。
- 参考スコア(独自算出の注目度): 5.311665176634655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks on stochastic bandits have traditionally relied on some unrealistic assumptions, such as per-round reward manipulation and unbounded perturbations, limiting their relevance to real-world systems. We propose a more practical threat model, Fake Data Injection, which reflects realistic adversarial constraints: the attacker can inject only a limited number of bounded fake feedback samples into the learner's history, simulating legitimate interactions. We design efficient attack strategies under this model, explicitly addressing both magnitude constraints (on reward values) and temporal constraints (on when and how often data can be injected). Our theoretical analysis shows that these attacks can mislead both Upper Confidence Bound (UCB) and Thompson Sampling algorithms into selecting a target arm in nearly all rounds while incurring only sublinear attack cost. Experiments on synthetic and real-world datasets validate the effectiveness of our strategies, revealing significant vulnerabilities in widely used stochastic bandit algorithms under practical adversarial scenarios.
- Abstract(参考訳): 確率的盗賊に対する敵対的な攻撃は、伝統的に、丸ごとの報酬操作や束縛されていない摂動といった非現実的な仮定に頼り、現実世界のシステムとの関係を制限してきた。
より実用的な脅威モデルであるフェイクデータインジェクション(Fake Data Injection)を提案し、これは現実的な敵の制約を反映している。
我々は、このモデルの下で効率的な攻撃戦略を設計し、(報酬値の)大小制約と(データ注入頻度の)時間的制約の両方に明示的に対処する。
我々の理論的分析は、これらの攻撃がアッパー信頼境界(UCB)とトンプソンサンプリングアルゴリズムの両方を誤認し、ほぼ全てのラウンドでターゲットアームを選択し、サブ線形攻撃コストのみを発生させることを示唆している。
合成および実世界のデータセットの実験は、我々の戦略の有効性を検証し、現実的なシナリオ下で広く使われている確率的バンディットアルゴリズムの重大な脆弱性を明らかにした。
関連論文リスト
- Towards Model Resistant to Transferable Adversarial Examples via Trigger Activation [95.3977252782181]
知覚不能な摂動によって特徴づけられる敵対的な例は、彼らの予測を誤解させることで、ディープニューラルネットワークに重大な脅威をもたらす。
本稿では,移動可能な敵例(TAE)に対して,より効率的かつ効果的に堅牢性を高めることを目的とした,新たなトレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2025-04-20T09:07:10Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - Detecting Adversarial Data using Perturbation Forgery [28.237738842260615]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布,スパースマスク生成,擬似逆数データ生成を含む摂動フォージェリを提案し,不明瞭な勾配ベース,生成型および物理的逆数攻撃を検出可能な逆数検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - Interactive Trimming against Evasive Online Data Manipulation Attacks: A Game-Theoretic Approach [10.822843258077997]
悪意のあるデータ中毒攻撃は、機械学習プロセスを破壊し、深刻な結果をもたらす可能性がある。
これらの攻撃を軽減するため、トリミングのような距離ベースの防御法が提案されている。
トリミング戦略を用いてオンラインデータ操作攻撃を防御するインタラクティブなゲーム理論モデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T13:59:05Z) - DTA: Distribution Transform-based Attack for Query-Limited Scenario [11.874670564015789]
敵の例を生成する際、従来のブラックボックス攻撃法は攻撃対象モデルからの十分なフィードバックに依存している。
本稿では,攻撃された動作が限られた数のクエリを実行可能であることをシミュレートするハードラベル攻撃を提案する。
提案したアイデアの有効性とDTAの最先端性を検証する実験を行った。
論文 参考訳(メタデータ) (2023-12-12T13:21:03Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adversarial Attacks are a Surprisingly Strong Baseline for Poisoning
Few-Shot Meta-Learners [28.468089304148453]
これにより、システムの学習アルゴリズムを騙すような、衝突する入力セットを作れます。
ホワイトボックス環境では、これらの攻撃は非常に成功しており、ターゲットモデルの予測が偶然よりも悪化する可能性があることを示す。
攻撃による「過度な対応」と、攻撃が生成されたモデルと攻撃が転送されたモデルとのミスマッチという2つの仮説を探索する。
論文 参考訳(メタデータ) (2022-11-23T14:55:44Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。