論文の概要: DV-FSR: A Dual-View Target Attack Framework for Federated Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2409.07500v1
- Date: Tue, 10 Sep 2024 15:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 20:40:16.934535
- Title: DV-FSR: A Dual-View Target Attack Framework for Federated Sequential Recommendation
- Title(参考訳): DV-FSR:Federated Sequential Recommendationのためのデュアルビューターゲットアタックフレームワーク
- Authors: Qitao Qin, Yucong Luo, Mingyue Cheng, Qingyang Mao, Chenyi Lei,
- Abstract要約: フェデレートされたレコメンデーション(FedRec)は、パーソナライズされたモデルの分散トレーニングを可能にすることによって、ユーザのプライバシを保護します。
本稿では,DV-FSRと呼ばれる新しいデュアルビューアタックフレームワークを提案する。このフレームワークは,サンプリングに基づく明示的戦略と対照的な学習に基づく暗黙的勾配戦略を組み合わせて,協調攻撃を編成する。
- 参考スコア(独自算出の注目度): 4.980393474423609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated recommendation (FedRec) preserves user privacy by enabling decentralized training of personalized models, but this architecture is inherently vulnerable to adversarial attacks. Significant research has been conducted on targeted attacks in FedRec systems, motivated by commercial and social influence considerations. However, much of this work has largely overlooked the differential robustness of recommendation models. Moreover, our empirical findings indicate that existing targeted attack methods achieve only limited effectiveness in Federated Sequential Recommendation (FSR) tasks. Driven by these observations, we focus on investigating targeted attacks in FSR and propose a novel dualview attack framework, named DV-FSR. This attack method uniquely combines a sampling-based explicit strategy with a contrastive learning-based implicit gradient strategy to orchestrate a coordinated attack. Additionally, we introduce a specific defense mechanism tailored for targeted attacks in FSR, aiming to evaluate the mitigation effects of the attack method we proposed. Extensive experiments validate the effectiveness of our proposed approach on representative sequential models.
- Abstract(参考訳): フェデレートされたレコメンデーション(FedRec)は、パーソナライズされたモデルの分散トレーニングを可能にすることによって、ユーザのプライバシを保護します。
商業的・社会的影響を考慮したFedRecシステムにおける標的攻撃に関する重要な研究が進められている。
しかしながら、この研究の多くは、レコメンデーションモデルの微分ロバスト性を見落としている。
さらに,本研究では,既存の攻撃手法がFSR(Federated Sequential Recommendation)タスクにおいて限られた効果しか得られないことが実証された。
これらの観測により、我々はFSRの標的攻撃を調査することに集中し、DV-FSRと呼ばれる新しいデュアルビュー攻撃フレームワークを提案する。
この攻撃方法は、サンプリングに基づく明示的戦略と対照的な学習に基づく暗黙的勾配戦略を一意に組み合わせて、協調攻撃を編成する。
さらに,FSRにおける標的攻撃に適した特定の防御機構を導入し,攻撃方法の緩和効果を評価することを目的とした。
大規模実験により,提案手法が代表的逐次モデルに対して有効であることを示す。
関連論文リスト
- Evaluating the Robustness of LiDAR Point Cloud Tracking Against Adversarial Attack [6.101494710781259]
本稿では,3次元物体追跡の文脈において,敵攻撃を行うための統一的なフレームワークを提案する。
ブラックボックス攻撃のシナリオに対処するために,新たなトランスファーベースアプローチであるTarget-aware Perturbation Generation (TAPG)アルゴリズムを導入する。
実験の結果,ブラックボックスとホワイトボックスの両方の攻撃を受けた場合,高度な追跡手法に重大な脆弱性があることが判明した。
論文 参考訳(メタデータ) (2024-10-28T10:20:38Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Raccoon: Prompt Extraction Benchmark of LLM-Integrated Applications [8.51254190797079]
本稿では,抽出攻撃に対するモデルの感受性を包括的に評価するRacoonベンチマークを提案する。
本手法は,無防備シナリオと防御シナリオの両方でモデルを評価する。
本研究は,防衛の欠如を契機に,盗難を助長するための普遍的感受性を強調し,保護時に顕著なレジリエンスを示すOpenAIモデルを示した。
論文 参考訳(メタデータ) (2024-06-10T18:57:22Z) - Securing Recommender System via Cooperative Training [78.97620275467733]
本稿では,データを相互に強化する3つの協調モデルを用いたTCD(Triple Cooperative Defense)を提案する。
既存の攻撃が二段階最適化と効率のバランスをとるのに苦労していることを考えると、リコメンダシステムにおける毒殺攻撃を再考する。
我々はゲームベースのコトレーニングアタック(GCoAttack)を提案し,提案したCoAttackとTCDをゲーム理論のプロセスとする。
論文 参考訳(メタデータ) (2024-01-23T12:07:20Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Dynamic Defense Approach for Adversarial Robustness in Deep Neural
Networks via Stochastic Ensemble Smoothed Model [12.858728363390703]
本稿ではランダムスムージングの防御法とモデルスムージングに基づくアンサンブルスムージングについて述べる。
ホワイトボックス攻撃下のアンサンブルモデルの極端な転送可能性と脆弱性を扱う。
論文 参考訳(メタデータ) (2021-05-06T16:48:52Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。