論文の概要: An Empirical Study of DNNs Robustification Inefficacy in Protecting
Visual Recommenders
- arxiv url: http://arxiv.org/abs/2010.00984v1
- Date: Fri, 2 Oct 2020 13:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:24:51.695963
- Title: An Empirical Study of DNNs Robustification Inefficacy in Protecting
Visual Recommenders
- Title(参考訳): ビジュアルレコメンダ保護におけるDNNのロバスト化効果に関する実証的研究
- Authors: Vito Walter Anelli, Tommaso Di Noia, Daniele Malitesta, Felice Antonio
Merra
- Abstract要約: 深層ニューラルネットワーク(DNN)から抽出した製品画像の視覚的特徴にユーザのフィードバックを統合することで、ビジュアルベースレコメンデータシステム(VRS)がレコメンデーション性能を向上させる。
VRSのレコメンデーションパフォーマンスを変えるために、人間の知覚できない画像摂動、定義されたテクスタディバーサルアタックが実証されている。
これらの防御機構がVRSの性能をどのように保護できるかを考察する。
- 参考スコア(独自算出の注目度): 17.724445713933612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual-based recommender systems (VRSs) enhance recommendation performance by
integrating users' feedback with the visual features of product images
extracted from a deep neural network (DNN). Recently, human-imperceptible
images perturbations, defined \textit{adversarial attacks}, have been
demonstrated to alter the VRSs recommendation performance, e.g., pushing/nuking
category of products. However, since adversarial training techniques have
proven to successfully robustify DNNs in preserving classification accuracy, to
the best of our knowledge, two important questions have not been investigated
yet: 1) How well can these defensive mechanisms protect the VRSs performance?
2) What are the reasons behind ineffective/effective defenses? To answer these
questions, we define a set of defense and attack settings, as well as
recommender models, to empirically investigate the efficacy of defensive
mechanisms. The results indicate alarming risks in protecting a VRS through the
DNN robustification. Our experiments shed light on the importance of visual
features in very effective attack scenarios. Given the financial impact of VRSs
on many companies, we believe this work might rise the need to investigate how
to successfully protect visual-based recommenders. Source code and data are
available at
https://anonymous.4open.science/r/868f87ca-c8a4-41ba-9af9-20c41de33029/.
- Abstract(参考訳): ビジュアルベースレコメンデータシステム(VRS)は、ディープニューラルネットワーク(DNN)から抽出した製品画像の視覚的特徴とユーザのフィードバックを統合することにより、レコメンデーションパフォーマンスを向上させる。
近年,VRSの推奨性能,例えばプッシュ/ヌーキングのカテゴリを変更するために,人間の知覚可能な画像摂動,すなわちtextit{adversarial attack} が実証されている。
しかし,dnnの分類精度を最善の知識に保ちながら,dnnの強固化に成功していることが実証されているため,まだ2つの重要な疑問が検討されていない。
1)これらの防御機構はVRSのパフォーマンスをどの程度保護できるか?
2) 効果的で効果的な防御の背後にある理由は何か。
これらの質問に答えるために、防御機構の有効性を実証的に調査するために、防衛・攻撃設定のセットとレコメンダモデルを定義した。
結果は、DNNロバスト化を通じてVRSを保護する際の危険を警告することを示している。
我々の実験は、非常に効果的な攻撃シナリオにおける視覚的特徴の重要性を浮き彫りにした。
多くの企業に対するvrssの経済的影響を考えると、この取り組みはビジュアルベースのレコメンデーションをうまく保護する方法を調べる必要性を増すだろう。
ソースコードとデータはhttps://anonymous.4open.science/r/868f87ca-c8a4-41ba-9af9-20c41de33029。
関連論文リスト
- Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - ConFoc: Content-Focus Protection Against Trojan Attacks on Neural
Networks [0.0]
トロイの木馬攻撃は、推測やテストの時間に悪用されるマークまたはトリガーのサンプルを使用して、トレーニング時にいくつかの誤った振る舞いを挿入する。
本稿では、DNNが入力のスタイルを無視してコンテンツに集中するように教えられるトロイの木馬攻撃に対する防御手法を提案する。
その結果,本手法は全攻撃における攻撃成功率を1%に低下させることがわかった。
論文 参考訳(メタデータ) (2020-07-01T19:25:34Z) - DefenseVGAE: Defending against Adversarial Attacks on Graph Data via a
Variational Graph Autoencoder [22.754141951413786]
グラフニューラルネットワーク(GNN)は、グラフデータ上のタスクに対して顕著なパフォーマンスを達成する。
近年の研究では、敵対的な構造的摂動に非常に弱いことが示されており、その結果は信頼できない。
本稿では,変分グラフオートエンコーダ(VGAE)を利用した新しいフレームワークであるDefenseVGAEを提案する。
論文 参考訳(メタデータ) (2020-06-16T03:30:23Z) - Heat and Blur: An Effective and Fast Defense Against Adversarial
Examples [2.2843885788439797]
特徴可視化と入力修正を組み合わせた簡易な防御法を提案する。
我々はこれらの熱マップを防衛の基盤として利用し、敵効果は巨大なぼやけによって損なわれる。
また,攻撃と防御の効果をより徹底的かつ記述的に捉えることのできる,新たな評価指標も提供する。
論文 参考訳(メタデータ) (2020-03-17T08:11:18Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。