論文の概要: An Empirical Study of DNNs Robustification Inefficacy in Protecting
Visual Recommenders
- arxiv url: http://arxiv.org/abs/2010.00984v1
- Date: Fri, 2 Oct 2020 13:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:24:51.695963
- Title: An Empirical Study of DNNs Robustification Inefficacy in Protecting
Visual Recommenders
- Title(参考訳): ビジュアルレコメンダ保護におけるDNNのロバスト化効果に関する実証的研究
- Authors: Vito Walter Anelli, Tommaso Di Noia, Daniele Malitesta, Felice Antonio
Merra
- Abstract要約: 深層ニューラルネットワーク(DNN)から抽出した製品画像の視覚的特徴にユーザのフィードバックを統合することで、ビジュアルベースレコメンデータシステム(VRS)がレコメンデーション性能を向上させる。
VRSのレコメンデーションパフォーマンスを変えるために、人間の知覚できない画像摂動、定義されたテクスタディバーサルアタックが実証されている。
これらの防御機構がVRSの性能をどのように保護できるかを考察する。
- 参考スコア(独自算出の注目度): 17.724445713933612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual-based recommender systems (VRSs) enhance recommendation performance by
integrating users' feedback with the visual features of product images
extracted from a deep neural network (DNN). Recently, human-imperceptible
images perturbations, defined \textit{adversarial attacks}, have been
demonstrated to alter the VRSs recommendation performance, e.g., pushing/nuking
category of products. However, since adversarial training techniques have
proven to successfully robustify DNNs in preserving classification accuracy, to
the best of our knowledge, two important questions have not been investigated
yet: 1) How well can these defensive mechanisms protect the VRSs performance?
2) What are the reasons behind ineffective/effective defenses? To answer these
questions, we define a set of defense and attack settings, as well as
recommender models, to empirically investigate the efficacy of defensive
mechanisms. The results indicate alarming risks in protecting a VRS through the
DNN robustification. Our experiments shed light on the importance of visual
features in very effective attack scenarios. Given the financial impact of VRSs
on many companies, we believe this work might rise the need to investigate how
to successfully protect visual-based recommenders. Source code and data are
available at
https://anonymous.4open.science/r/868f87ca-c8a4-41ba-9af9-20c41de33029/.
- Abstract(参考訳): ビジュアルベースレコメンデータシステム(VRS)は、ディープニューラルネットワーク(DNN)から抽出した製品画像の視覚的特徴とユーザのフィードバックを統合することにより、レコメンデーションパフォーマンスを向上させる。
近年,VRSの推奨性能,例えばプッシュ/ヌーキングのカテゴリを変更するために,人間の知覚可能な画像摂動,すなわちtextit{adversarial attack} が実証されている。
しかし,dnnの分類精度を最善の知識に保ちながら,dnnの強固化に成功していることが実証されているため,まだ2つの重要な疑問が検討されていない。
1)これらの防御機構はVRSのパフォーマンスをどの程度保護できるか?
2) 効果的で効果的な防御の背後にある理由は何か。
これらの質問に答えるために、防御機構の有効性を実証的に調査するために、防衛・攻撃設定のセットとレコメンダモデルを定義した。
結果は、DNNロバスト化を通じてVRSを保護する際の危険を警告することを示している。
我々の実験は、非常に効果的な攻撃シナリオにおける視覚的特徴の重要性を浮き彫りにした。
多くの企業に対するvrssの経済的影響を考えると、この取り組みはビジュアルベースのレコメンデーションをうまく保護する方法を調べる必要性を増すだろう。
ソースコードとデータはhttps://anonymous.4open.science/r/868f87ca-c8a4-41ba-9af9-20c41de33029。
関連論文リスト
- DAD++: Improved Data-free Test Time Adversarial Defense [12.606555446261668]
本稿では,検出・修正フレームワークを含むDAD(Data-free Adversarial Defense)を提案する。
提案手法の有効性を示すため,いくつかのデータセットとネットワークアーキテクチャについて幅広い実験と改善を行った。
私たちのDAD++は、クリーンな精度を最小限に抑えながら、様々な敵攻撃に対して印象的なパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-09-10T20:39:53Z) - Not So Robust After All: Evaluating the Robustness of Deep Neural
Networks to Unseen Adversarial Attacks [5.024667090792856]
ディープニューラルネットワーク(DNN)は、分類、認識、予測など、さまざまなアプリケーションで注目を集めている。
従来のDNNの基本的属性は、入力データの修正に対する脆弱性である。
本研究の目的は、敵攻撃に対する現代の防御機構の有効性と一般化に挑戦することである。
論文 参考訳(メタデータ) (2023-08-12T05:21:34Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Voting for the right answer: Adversarial defense for speaker
verification [79.10523688806852]
ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
論文 参考訳(メタデータ) (2021-06-15T04:05:28Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - ConFoc: Content-Focus Protection Against Trojan Attacks on Neural
Networks [0.0]
トロイの木馬攻撃は、推測やテストの時間に悪用されるマークまたはトリガーのサンプルを使用して、トレーニング時にいくつかの誤った振る舞いを挿入する。
本稿では、DNNが入力のスタイルを無視してコンテンツに集中するように教えられるトロイの木馬攻撃に対する防御手法を提案する。
その結果,本手法は全攻撃における攻撃成功率を1%に低下させることがわかった。
論文 参考訳(メタデータ) (2020-07-01T19:25:34Z) - DefenseVGAE: Defending against Adversarial Attacks on Graph Data via a
Variational Graph Autoencoder [22.754141951413786]
グラフニューラルネットワーク(GNN)は、グラフデータ上のタスクに対して顕著なパフォーマンスを達成する。
近年の研究では、敵対的な構造的摂動に非常に弱いことが示されており、その結果は信頼できない。
本稿では,変分グラフオートエンコーダ(VGAE)を利用した新しいフレームワークであるDefenseVGAEを提案する。
論文 参考訳(メタデータ) (2020-06-16T03:30:23Z) - Heat and Blur: An Effective and Fast Defense Against Adversarial
Examples [2.2843885788439797]
特徴可視化と入力修正を組み合わせた簡易な防御法を提案する。
我々はこれらの熱マップを防衛の基盤として利用し、敵効果は巨大なぼやけによって損なわれる。
また,攻撃と防御の効果をより徹底的かつ記述的に捉えることのできる,新たな評価指標も提供する。
論文 参考訳(メタデータ) (2020-03-17T08:11:18Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。