論文の概要: Toward Robust Recommendation via Real-time Vicinal Defense
- arxiv url: http://arxiv.org/abs/2309.17278v1
- Date: Fri, 29 Sep 2023 14:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 13:23:17.792063
- Title: Toward Robust Recommendation via Real-time Vicinal Defense
- Title(参考訳): リアルタイムウイルス防御によるロバスト勧告に向けて
- Authors: Yichang Xu, Chenwang Wu and Defu Lian
- Abstract要約: 本稿では,近隣のトレーニングデータを活用してモデルを微調整し,各ユーザに対して推薦を行うための一般的な方法であるリアルタイムバイシナルディフェンス(RVD)を提案する。
RVDは、精度を犠牲にすることなく、標的の毒殺攻撃を効果的に軽減する。
- 参考スコア(独自算出の注目度): 32.69838472574848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems have been shown to be vulnerable to poisoning attacks,
where malicious data is injected into the dataset to cause the recommender
system to provide biased recommendations. To defend against such attacks,
various robust learning methods have been proposed. However, most methods are
model-specific or attack-specific, making them lack generality, while other
methods, such as adversarial training, are oriented towards evasion attacks and
thus have a weak defense strength in poisoning attacks.
In this paper, we propose a general method, Real-time Vicinal Defense (RVD),
which leverages neighboring training data to fine-tune the model before making
a recommendation for each user. RVD works in the inference phase to ensure the
robustness of the specific sample in real-time, so there is no need to change
the model structure and training process, making it more practical. Extensive
experimental results demonstrate that RVD effectively mitigates targeted
poisoning attacks across various models without sacrificing accuracy. Moreover,
the defensive effect can be further amplified when our method is combined with
other strategies.
- Abstract(参考訳): レコメンダシステムは、悪意のあるデータがデータセットに注入され、レコメンダシステムがバイアスのあるレコメンデーションを提供する、中毒攻撃に対して脆弱であることが示されている。
このような攻撃から守るため、様々な堅牢な学習方法が提案されている。
しかし、ほとんどの手法はモデル固有または攻撃特異的であり、汎用性に欠けるが、敵の訓練のような他の手法は回避攻撃を指向しており、毒殺攻撃における防御力は弱い。
本稿では,ユーザ毎のレコメンデーションを行う前に,隣接するトレーニングデータを利用してモデルを微調整する,リアルタイムビクタナルディフェンス(real-time vicinal defense, rvd)を提案する。
RVDは推論フェーズで動作し、特定のサンプルの堅牢性をリアルタイムで保証するので、モデル構造やトレーニングプロセスを変更する必要はなく、より実用的なものになります。
大規模な実験により、RVDは精度を犠牲にすることなく、様々なモデルにわたる標的毒殺攻撃を効果的に軽減することが示された。
さらに,本手法を他の戦略と組み合わせた場合,防御効果をさらに増幅することができる。
関連論文リスト
- Optimal Zero-Shot Detector for Multi-Armed Attacks [30.906457338347447]
本稿では,悪意あるアクターが多武器攻撃戦略を用いてデータサンプルを操作するシナリオについて考察する。
私たちの中心的な目的は、入力の変更を検出してデータを保護することです。
我々はこれらの検出器による決定を最適に集約する革新的な情報理論防衛手法を導出する。
論文 参考訳(メタデータ) (2024-02-24T13:08:39Z) - Unsupervised Adversarial Detection without Extra Model: Training Loss
Should Change [24.76524262635603]
従来の敵の訓練と教師付き検出へのアプローチは、攻撃型の事前知識とラベル付きトレーニングデータへのアクセスに依存している。
そこで本稿では,敵攻撃の事前知識を必要とせずに,不要な特徴とそれに対応する検出方法を新たに提案する。
提案手法は全攻撃タイプで有効であり, 偽陽性率は特定の攻撃タイプに優れた手法よりさらに優れている。
論文 参考訳(メタデータ) (2023-08-07T01:41:21Z) - AdvDiff: Generating Unrestricted Adversarial Examples using Diffusion Models [7.406040859734522]
制限のない敵攻撃は、深層学習モデルや敵防衛技術に深刻な脅威をもたらす。
以前の攻撃法は、しばしば生成モデルのサンプリングに投影された勾配(PGD)を直接注入する。
本稿では,拡散モデルを用いた非制限逆例を生成するAdvDiffと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T03:10:02Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - MIXPGD: Hybrid Adversarial Training for Speech Recognition Systems [18.01556863687433]
ASRシステムのモデルの堅牢性を向上させるために,混合PGD逆行訓練法を提案する。
標準的な対人訓練では、教師なしまたは教師なしの手法を利用して、敵のサンプルを生成する。
我々は,モデルロバスト性向上に役立つ新しい対向サンプルを生成するために,教師付きアプローチと教師なしアプローチの両機能を融合する。
論文 参考訳(メタデータ) (2023-03-10T07:52:28Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。