論文の概要: Controllable and Stealthy Shilling Attacks via Dispersive Latent Diffusion
- arxiv url: http://arxiv.org/abs/2508.01987v1
- Date: Mon, 04 Aug 2025 01:54:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.721639
- Title: Controllable and Stealthy Shilling Attacks via Dispersive Latent Diffusion
- Title(参考訳): 分散潜伏拡散による可制御・定常シリング攻撃
- Authors: Shutong Qiao, Wei Yuan, Junliang Yu, Tong Chen, Quoc Viet Hung Nguyen, Hongzhi Yin,
- Abstract要約: 本稿では,拡散型攻撃フレームワークであるDLDAについて述べる。
従来の攻撃に比べ,DLDAはより強力な項目の促進を実現しつつ,検出が困難であることを示す。
- 参考スコア(独自算出の注目度): 47.012167601128745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommender systems (RSs) are now fundamental to various online platforms, but their dependence on user-contributed data leaves them vulnerable to shilling attacks that can manipulate item rankings by injecting fake users. Although widely studied, most existing attack models fail to meet two critical objectives simultaneously: achieving strong adversarial promotion of target items while maintaining realistic behavior to evade detection. As a result, the true severity of shilling threats that manage to reconcile the two objectives remains underappreciated. To expose this overlooked vulnerability, we present DLDA, a diffusion-based attack framework that can generate highly effective yet indistinguishable fake users by enabling fine-grained control over target promotion. Specifically, DLDA operates in a pre-aligned collaborative embedding space, where it employs a conditional latent diffusion process to iteratively synthesize fake user profiles with precise target item control. To evade detection, DLDA introduces a dispersive regularization mechanism that promotes variability and realism in generated behavioral patterns. Extensive experiments on three real-world datasets and five popular RS models demonstrate that, compared to prior attacks, DLDA consistently achieves stronger item promotion while remaining harder to detect. These results highlight that modern RSs are more vulnerable than previously recognized, underscoring the urgent need for more robust defenses.
- Abstract(参考訳): 現在、レコメンダシステム(RS)は様々なオンラインプラットフォームに基礎を置いているが、ユーザーによるデータへの依存は、偽ユーザーを注入することでアイテムランキングを操作できる攻撃に対して脆弱である。
広く研究されているが、既存の攻撃モデルは2つの重要な目標を同時に満たさない。
結果として、二つの目的を和らげる脅威の真の深刻さは、いまだに未承認のままである。
この脆弱性を明らかにするために,DLDAを提案する。DLDAは,ターゲットプロモーションのきめ細かい制御を可能にすることで,効果的だが識別不能な偽ユーザを生成できる拡散攻撃フレームワークである。
具体的には、DLDAは、条件付き潜伏拡散プロセスを用いて、正確なターゲットアイテム制御で偽ユーザプロファイルを反復的に合成する、予め整列された協調埋め込み空間で動作する。
検出を回避するため、DLDAは分散正規化機構を導入し、生成された行動パターンの変動性とリアリズムを促進する。
3つの実世界のデータセットと5つの一般的なRSモデルに対する大規模な実験により、DLDAは以前の攻撃と比較して、常により強力なアイテムの促進を達成する一方で、検出が困難であることを実証した。
これらの結果は、現代のRSは以前認識されていたよりも脆弱であり、より堅牢な防衛の必要性を浮き彫りにしている。
関連論文リスト
- Generative Adversarial Evasion and Out-of-Distribution Detection for UAV Cyber-Attacks [6.956559003734227]
本稿では,IDS機構を回避したステルス性対向攻撃を実現するための条件生成対向ネットワーク(cGAN)ベースのフレームワークを提案する。
本研究は,IDS能力を高めるための高度な確率的モデリングの重要性を強調した。
論文 参考訳(メタデータ) (2025-06-26T10:56:34Z) - Diversity-aware Dual-promotion Poisoning Attack on Sequential Recommendation [46.58387906461697]
シークエンシャルレコメンダシステム(SRS)は、ユーザのダイナミックな関心を捉え、産業アプリケーションにおいて重要な役割を担っている。
既存の攻撃メカニズムは、慎重に巧妙なインタラクションを注入することによって、レコメンデーションリストのターゲット項目のランクを上げることに重点を置いている。
そこで本研究では,SRSのための多変量対応デュアルプロモーション・シークエンシャル・ポジショニング・アタック手法であるNonPを提案する。
論文 参考訳(メタデータ) (2025-04-09T05:28:41Z) - AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2025-03-09T09:24:24Z) - AnywhereDoor: Multi-Target Backdoor Attacks on Object Detection [9.539021752700823]
AnywhereDoorは、オブジェクト検出のためのマルチターゲットバックドアアタックである。
敵は、すべてのオブジェクトクラスまたは特定のオブジェクトクラスをまたいで、オブジェクトを消したり、新しいオブジェクトを作ったり、ラベルを間違えたりすることができる。
このような柔軟な制御のための既存の手法の適応と比較して、攻撃成功率を26%向上させる。
論文 参考訳(メタデータ) (2024-11-21T15:50:59Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Watch the Watcher! Backdoor Attacks on Security-Enhancing Diffusion Models [65.30406788716104]
本研究では,セキュリティ強化拡散モデルの脆弱性について検討する。
これらのモデルは、シンプルで効果的なバックドア攻撃であるDIFF2に非常に感受性があることを実証する。
ケーススタディでは、DIFF2は、ベンチマークデータセットとモデル間で、パーフィケーション後の精度と認定精度の両方を著しく削減できることを示している。
論文 参考訳(メタデータ) (2024-06-14T02:39:43Z) - ToDA: Target-oriented Diffusion Attacker against Recommendation System [19.546532220090793]
レコメンデーションシステム(RS)は、敵がユーザープロファイルを操作できる悪意のある攻撃を受けやすいため、バイアスのあるレコメンデーションにつながる。
最近の研究は、しばしばこれらの偽りのユーザープロファイルを作成するために生成モデルを使って追加のモジュールを統合する。
ターゲット指向拡散攻撃モデル(ToDA)を提案する。
ユーザープロファイルを高次元空間に変換し、ToDAのコアコンポーネントであるLatent Diffusion Attacker(LDA)と組み合わせる、事前訓練されたオートエンコーダが組み込まれている。
論文 参考訳(メタデータ) (2024-01-23T09:12:26Z) - Unveiling Vulnerabilities of Contrastive Recommender Systems to Poisoning Attacks [48.911832772464145]
コントラスト学習(CL)は近年,レコメンダシステムの領域で注目されている。
本稿では,CLをベースとしたレコメンデータシステムの脆弱性を明らかにする。
論文 参考訳(メタデータ) (2023-11-30T04:25:28Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。