論文の概要: A survey on Adversarial Recommender Systems: from Attack/Defense
strategies to Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2005.10322v2
- Date: Tue, 10 Nov 2020 10:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 06:20:36.650778
- Title: A survey on Adversarial Recommender Systems: from Attack/Defense
strategies to Generative Adversarial Networks
- Title(参考訳): 広告レコメンデーションシステムに関する調査研究--攻撃・防衛戦略から生成的広告ネットワークへ-
- Authors: Yashar Deldjoo and Tommaso Di Noia and Felice Antonio Merra
- Abstract要約: 協調フィルタリング(CF)に基づく潜在因子モデル(LFM)は、リコメンダシステム(RS)において広く使われている。
機械学習(ML)の多くの応用は本質的に逆である。
- 参考スコア(独自算出の注目度): 17.48549434869898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent-factor models (LFM) based on collaborative filtering (CF), such as
matrix factorization (MF) and deep CF methods, are widely used in modern
recommender systems (RS) due to their excellent performance and recommendation
accuracy. However, success has been accompanied with a major new arising
challenge: many applications of machine learning (ML) are adversarial in
nature. In recent years, it has been shown that these methods are vulnerable to
adversarial examples, i.e., subtle but non-random perturbations designed to
force recommendation models to produce erroneous outputs.
The goal of this survey is two-fold: (i) to present recent advances on
adversarial machine learning (AML) for the security of RS (i.e., attacking and
defense recommendation models), (ii) to show another successful application of
AML in generative adversarial networks (GANs) for generative applications,
thanks to their ability for learning (high-dimensional) data distributions. In
this survey, we provide an exhaustive literature review of 74 articles
published in major RS and ML journals and conferences. This review serves as a
reference for the RS community, working on the security of RS or on generative
models using GANs to improve their quality.
- Abstract(参考訳): 行列分解法 (MF) やディープCF法のような協調フィルタリング (CF) に基づく潜在因子モデル (LFM) は, 優れた性能と推奨精度のため, 現代のレコメンデータシステム (RS) において広く用いられている。
しかし、成功には新たな課題が伴っている。機械学習(ml)の多くの応用は、本質的に敵対的である。
近年、これらの手法は敵対的な例、すなわち、推奨モデルに誤った出力を強制するために設計された微妙だが非ランダムな摂動に対して脆弱であることが示されている。
この調査の目標は2つあります。
(i)rsのセキュリティ(攻撃・防衛勧告モデル)のためのadversarial machine learning(aml)の最近の進歩について紹介する。
(ii)(高次元)データ分布の学習能力により、生成的逆ネットワーク(gans)におけるamlのもう1つの成功例を示す。
本調査では,主要な学術雑誌や学会に掲載された74の論文の総括的な文献レビューを行う。
このレビューは、RSコミュニティのリファレンスとして機能し、RSのセキュリティや、GANを用いた生成モデルを使って品質を改善する。
関連論文リスト
- Large Language Model Empowered Embedding Generator for Sequential Recommendation [57.49045064294086]
大言語モデル(LLM)は、その人気に関係なく、項目間の意味的関係を理解する能力を持つ。
LLMEmbは、LCMを利用してアイテム埋め込みを作成し、シークエンシャル・レコメンダ・システムの性能を高める革新的な技術である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [69.4501863547618]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に着目し, 完全性, 幻覚, 不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Review-Incorporated Model-Agnostic Profile Injection Attacks on
Recommender Systems [24.60223863559958]
本稿では, R-Trojan という新たな攻撃フレームワークを提案する。このフレームワークは, 攻撃目標を最適化問題として定式化し, それを解決するために, トランスフォーマベース生成対向ネットワーク (GAN) を採用している。
実世界のデータセットの実験では、R-Trojanはブラックボックス設定下で、さまざまな犠牲者RSに対する最先端の攻撃方法を大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-14T08:56:41Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Enhancing ML-Based DoS Attack Detection Through Combinatorial Fusion
Analysis [2.7973964073307265]
サービス拒否(DoS)攻撃の緩和は、オンラインサービスのセキュリティと可用性にとって不可欠である。
先進的なアルゴリズムを用いて複数のMLモデルを組み合わせた,革新的な融合法を提案する。
本研究は,DoS攻撃の検出を改良し,防御機構の強化に寄与する手法の可能性を強調した。
論文 参考訳(メタデータ) (2023-10-02T02:21:48Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Machine Learning Security against Data Poisoning: Are We There Yet? [23.809841593870757]
この記事では、機械学習モデル学習に使用されるトレーニングデータを侵害するデータ中毒攻撃についてレビューする。
基本的なセキュリティ原則を用いてこれらの攻撃を緩和するか、あるいはML指向の防御機構をデプロイするかについて議論する。
論文 参考訳(メタデータ) (2022-04-12T17:52:09Z) - Supervised Advantage Actor-Critic for Recommender Systems [76.7066594130961]
本稿では、RL成分を学習するための負のサンプリング戦略を提案し、それを教師付き逐次学習と組み合わせる。
サンプル化された(負の)作用 (items) に基づいて、平均ケース上での正の作用の「アドバンテージ」を計算することができる。
SNQNとSA2Cを4つのシーケンシャルレコメンデーションモデルでインスタンス化し、2つの実世界のデータセットで実験を行う。
論文 参考訳(メタデータ) (2021-11-05T12:51:15Z) - ConAML: Constrained Adversarial Machine Learning for Cyber-Physical
Systems [7.351477761427584]
サイバー物理システムに適用された機械学習の潜在的な脆弱性について検討する。
本稿では,本システム固有の制約を満たす逆例を生成するConstrained Adversarial Machine Learning (ConAML)を提案する。
論文 参考訳(メタデータ) (2020-03-12T05:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。