論文の概要: SemanticShield: LLM-Powered Audits Expose Shilling Attacks in Recommender Systems
- arxiv url: http://arxiv.org/abs/2509.24961v1
- Date: Mon, 29 Sep 2025 15:53:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.107504
- Title: SemanticShield: LLM-Powered Audits Expose Shilling Attacks in Recommender Systems
- Title(参考訳): SemanticShield: LLM搭載オーディットはレコメンダシステムにおけるシリング攻撃を露呈する
- Authors: Kaihong Li, Huichi Zhou, Bin Ma, Fangjun Huang,
- Abstract要約: 大規模言語モデル(LLM)を介してアイテム側セマンティクスを統合する2段階検出フレームワークを提案する。
6つの代表的な攻撃戦略の実験は、セマンティックシールドのシリング攻撃に対する効果を実証している。
- 参考スコア(独自算出の注目度): 17.047328801576935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems (RS) are widely used in e-commerce for personalized suggestions, yet their openness makes them susceptible to shilling attacks, where adversaries inject fake behaviors to manipulate recommendations. Most existing defenses emphasize user-side behaviors while overlooking item-side features such as titles and descriptions that can expose malicious intent. To address this gap, we propose a two-stage detection framework that integrates item-side semantics via large language models (LLMs). The first stage pre-screens suspicious users using low-cost behavioral criteria, and the second stage employs LLM-based auditing to evaluate semantic consistency. Furthermore, we enhance the auditing model through reinforcement fine-tuning on a lightweight LLM with carefully designed reward functions, yielding a specialized detector called SemanticShield. Experiments on six representative attack strategies demonstrate the effectiveness of SemanticShield against shilling attacks, and further evaluation on previously unseen attack methods shows its strong generalization capability. Code is available at https://github.com/FrankenstLee/SemanticShield.
- Abstract(参考訳): レコメンダシステム(RS)は、パーソナライズされた提案のために電子商取引で広く使われているが、そのオープン性は、敵が偽の振る舞いを注入してレコメンデーションを操作する攻撃の影響を受けやすい。
既存のディフェンスのほとんどは、悪意のある意図を露呈するタイトルや説明のようなアイテムサイドの機能を見落としながら、ユーザーサイドの振る舞いを強調している。
このギャップに対処するために,大規模言語モデル(LLM)を介して項目側セマンティクスを統合する2段階検出フレームワークを提案する。
第1段階では、低コストの行動基準を用いて疑わしいユーザを事前にスクリーニングし、第2段階では、意味的一貫性を評価するためにLLMベースの監査を採用する。
さらに,軽量LLMの微調整により評価モデルを強化し,セマンティックシールド(SemanticShield)と呼ばれる特殊検出器を作製した。
6つの代表的な攻撃戦略の実験は、セマンティックシールドのシリング攻撃に対する効果を実証し、これまで見られなかった攻撃方法のさらなる評価は、その強力な一般化能力を示している。
コードはhttps://github.com/FrankenstLee/SemanticShield.comで入手できる。
関連論文リスト
- BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - LLM-Based User Simulation for Low-Knowledge Shilling Attacks on Recommender Systems [28.559223475725137]
我々は,Large Language Model(LLM)ベースのエージェントを利用して,低知識かつ高インパクトなシリング攻撃を行う新しいフレームワークであるAgent4SRを紹介する。
Agent4SRは、対向的なインタラクションを編成し、アイテムを選択し、評価を割り当て、レビューを作成し、行動の妥当性を維持しながら、現実的なユーザ動作をシミュレートする。
以上の結果から,レコメンデーションシステムにおける防衛強化の必要性を浮き彫りにして,LSMを駆使したエージェントによる新たな緊急脅威の出現が示唆された。
論文 参考訳(メタデータ) (2025-05-18T04:40:34Z) - Stealthy LLM-Driven Data Poisoning Attacks Against Embedding-Based Retrieval-Augmented Recommender Systems [16.79952669254101]
検索強化レコメンデータシステム(RAG)におけるプロバイダ側データ中毒について検討する。
アイテム記述内でわずかなトークンだけを変更することで、攻撃者はターゲットのアイテムを著しくプロモートまたはデモすることができる。
MovieLensの実験では、2つの大きな言語モデル(LLM)検索モジュールを使用して、微妙な攻撃でも最終的なランク付けとアイテムの露出が変化し、単純な検出が発覚した。
論文 参考訳(メタデータ) (2025-05-08T12:53:42Z) - Evaluate-and-Purify: Fortifying Code Language Models Against Adversarial Attacks Using LLM-as-a-Judge [3.1656947459658813]
識別子置換攻撃者が生成した敵例の80%以上が実際に検出可能であることを示す。
識別子置換攻撃の評価と浄化のための統合フレームワークEP-Shieldを提案する。
論文 参考訳(メタデータ) (2025-04-28T12:28:55Z) - Gandalf the Red: Adaptive Security for LLMs [2.9422902813085665]
大規模言語モデル(LLM)アプリケーションにおける即時攻撃に対する防衛の現在の評価は、敵の行動の動的性質と、制限された防御によって正統なユーザに対して課されるユーザビリティの罰の2つの重要な要素を見落としている。
攻撃者を正当なユーザから明確に分離し、マルチステップインタラクションをモデル化し、最適化可能な形式でセキュリティユーティリティを表現するD-SECを提案する。
論文 参考訳(メタデータ) (2025-01-14T08:30:49Z) - Generalized Adversarial Code-Suggestions: Exploiting Contexts of LLM-based Code-Completion [4.940253381814369]
逆のコード提案は、データ中毒によって導入することができ、したがって、モデル作成者が無意識に行うことができる。
本稿では、このような攻撃を一般化した定式化を行い、この領域における関連する研究を創出し、拡張する。
後者は新規でフレキシブルな攻撃戦略を生み出し、敵は特定のユーザーグループに対して最適なトリガーパターンを任意に選択できる。
論文 参考訳(メタデータ) (2024-10-14T14:06:05Z) - Defending Large Language Models against Jailbreak Attacks via Semantic
Smoothing [107.97160023681184]
適応型大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
提案するSEMANTICSMOOTHは,与えられた入力プロンプトのセマンティック変換されたコピーの予測を集約するスムージングベースのディフェンスである。
論文 参考訳(メタデータ) (2024-02-25T20:36:03Z) - LoRec: Large Language Model for Robust Sequential Recommendation against Poisoning Attacks [60.719158008403376]
本研究は,リコメンデータシステムにおける未知の不正行為の検出におけるLarge Language Models(LLM)の機能に着目した。
逐次リコメンデータシステムのロバスト性を高めるため,LLM強化を利用した高度なフレームワークであるLoRecを提案する。
総合的な実験により、LoRecは一般的なフレームワークとして、シーケンシャルなレコメンデータシステムの堅牢性を大幅に強化することを示した。
論文 参考訳(メタデータ) (2024-01-31T10:35:53Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。