論文の概要: Retrieval-Augmented Review Generation for Poisoning Recommender Systems
- arxiv url: http://arxiv.org/abs/2508.15252v1
- Date: Thu, 21 Aug 2025 05:25:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.194623
- Title: Retrieval-Augmented Review Generation for Poisoning Recommender Systems
- Title(参考訳): ポゾンティング・レコメンダシステムのための検索強化レビュー生成
- Authors: Shiyi Yang, Xinshu Li, Guanglin Zhou, Chen Wang, Xiwei Xu, Liming Zhu, Lina Yao,
- Abstract要約: 本稿では,高品質な偽ユーザプロファイルを生成するために,RAGANという新しい実用的な攻撃フレームワークを提案する。
RAGANは最先端の中毒攻撃性能を達成する。
- 参考スコア(独自算出の注目度): 20.765216208845843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that recommender systems (RSs) are highly vulnerable to data poisoning attacks, where malicious actors inject fake user profiles, including a group of well-designed fake ratings, to manipulate recommendations. Due to security and privacy constraints in practice, attackers typically possess limited knowledge of the victim system and thus need to craft profiles that have transferability across black-box RSs. To maximize the attack impact, the profiles often remains imperceptible. However, generating such high-quality profiles with the restricted resources is challenging. Some works suggest incorporating fake textual reviews to strengthen the profiles; yet, the poor quality of the reviews largely undermines the attack effectiveness and imperceptibility under the practical setting. To tackle the above challenges, in this paper, we propose to enhance the quality of the review text by harnessing in-context learning (ICL) capabilities of multimodal foundation models. To this end, we introduce a demonstration retrieval algorithm and a text style transfer strategy to augment the navie ICL. Specifically, we propose a novel practical attack framework named RAGAN to generate high-quality fake user profiles, which can gain insights into the robustness of RSs. The profiles are generated by a jailbreaker and collaboratively optimized on an instructional agent and a guardian to improve the attack transferability and imperceptibility. Comprehensive experiments on various real-world datasets demonstrate that RAGAN achieves the state-of-the-art poisoning attack performance.
- Abstract(参考訳): 近年の研究では、レコメンデーションシステム(RS)は、悪意のあるアクターが、よく設計された偽のレーティングを含む偽のユーザープロファイルを注入してレコメンデーションを操作する、データ中毒攻撃に対して非常に脆弱であることが示されている。
実際にはセキュリティとプライバシの制約のため、攻撃者は一般的に被害者システムの知識が限られており、ブラックボックスRS間で転送可能なプロファイルを作成する必要がある。
攻撃の影響を最大化するために、プロファイルは認識できないことが多い。
しかし、そのような制限されたリソースで高品質なプロファイルを生成することは困難である。
いくつかの研究は、偽のテキストレビューを取り入れてプロファイルを強化することを示唆しているが、レビューの質の低さは、実際的な状況下での攻撃の有効性と不可避性をほとんど損なう。
上記の課題に対処するため,本論文では,マルチモーダル基礎モデルのコンテキスト内学習(ICL)機能を活用して,レビューテキストの品質を高めることを提案する。
そこで本研究では、実演検索アルゴリズムとテキストスタイルの転送方式を導入し、海軍のICLを増強する。
具体的には,RSの堅牢性に関する洞察を得ることが可能な,高品質な偽ユーザプロファイルを生成するための,RAGANという新しい実用的な攻撃フレームワークを提案する。
プロファイルは、ジェイルブレーカーによって生成され、攻撃の伝達性と非受容性を改善するために、命令エージェントと保護者に対して協調的に最適化される。
様々な実世界のデータセットに関する総合的な実験は、RAGANが最先端の中毒攻撃性能を達成することを実証している。
関連論文リスト
- Benchmarking Misuse Mitigation Against Covert Adversaries [80.74502950627736]
既存の言語モデルの安全性評価は、オーバースト攻撃と低レベルのタスクに重点を置いている。
我々は、隠蔽攻撃と対応する防御の評価を自動化するデータ生成パイプラインである、ステートフルディフェンスのためのベンチマーク(BSD)を開発した。
評価の結果,分解攻撃は有効な誤用防止剤であり,その対策としてステートフルディフェンスを強調した。
論文 参考訳(メタデータ) (2025-06-06T17:33:33Z) - LLM-Based User Simulation for Low-Knowledge Shilling Attacks on Recommender Systems [28.559223475725137]
我々は,Large Language Model(LLM)ベースのエージェントを利用して,低知識かつ高インパクトなシリング攻撃を行う新しいフレームワークであるAgent4SRを紹介する。
Agent4SRは、対向的なインタラクションを編成し、アイテムを選択し、評価を割り当て、レビューを作成し、行動の妥当性を維持しながら、現実的なユーザ動作をシミュレートする。
以上の結果から,レコメンデーションシステムにおける防衛強化の必要性を浮き彫りにして,LSMを駆使したエージェントによる新たな緊急脅威の出現が示唆された。
論文 参考訳(メタデータ) (2025-05-18T04:40:34Z) - POISONCRAFT: Practical Poisoning of Retrieval-Augmented Generation for Large Language Models [4.620537391830117]
大型言語モデル(LLM)は幻覚の影響を受けやすいため、誤った結果や誤解を招く可能性がある。
Retrieval-augmented Generation (RAG) は、外部知識源を活用することで幻覚を緩和する有望なアプローチである。
本稿では,POISONCRAFTと呼ばれるRAGシステムに対する中毒攻撃について検討する。
論文 参考訳(メタデータ) (2025-05-10T09:36:28Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems [24.60223863559958]
本稿では, R-Trojan という新たな攻撃フレームワークを提案する。このフレームワークは, 攻撃目標を最適化問題として定式化し, それを解決するために, トランスフォーマベース生成対向ネットワーク (GAN) を採用している。
実世界のデータセットの実験では、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-14T08:56:41Z) - Knowledge-enhanced Black-box Attacks for Recommendations [21.914252071143945]
ディープニューラルネットワークベースのレコメンデータシステムは、敵の攻撃に対して脆弱である。
攻撃ポリシーを効果的に学習するための知識グラフ強化ブラックボックス攻撃フレームワーク(KGAttack)を提案する。
様々な実世界のデータセットに関する総合的な実験は、提案した攻撃フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T04:59:31Z) - Shilling Black-box Recommender Systems by Learning to Generate Fake User
Profiles [14.437087775166876]
本稿では,ジェネレーティブ・アタック・ネットワークに基づく新たな攻撃モデルLeg-UPを提案する。
Leg-UPはサンプルテンプレート'で実際のユーザからユーザ行動パターンを学び、フェイクユーザプロファイルを構築する。
ベンチマーク実験では、Leg-UPは幅広い犠牲者RSモデルにおいて最先端のシリング攻撃法を超えることが示されている。
論文 参考訳(メタデータ) (2022-06-23T00:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。