論文の概要: Securing Visually-Aware Recommender Systems: An Adversarial Image
Reconstruction and Detection Framework
- arxiv url: http://arxiv.org/abs/2306.07992v1
- Date: Sun, 11 Jun 2023 19:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 23:40:36.144624
- Title: Securing Visually-Aware Recommender Systems: An Adversarial Image
Reconstruction and Detection Framework
- Title(参考訳): ビジュアル・アウェア・レコメンダシステムのセキュア化:逆画像再構成・検出フレームワーク
- Authors: Minglei Yin, Bin Liu, Neil Zhenqiang Gong, Xin Li
- Abstract要約: ビジュアル・アウェア・レコメンデーション・システム(VARS)はアイテム・イメージの敵攻撃に対して脆弱である。
本稿では,VARSをセキュアにするための逆画像再構成・検出フレームワークを提案する。
提案手法は,(1)グローバル・ビジョン・トランスフォーマーに基づく画像再構成による局所摂動を特徴とする敵攻撃からVARSを保護し,(2)新しいコントラッシブ・ラーニング・アプローチを用いて敵の事例を正確に検出する。
- 参考スコア(独自算出の注目度): 41.680028677031316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With rich visual data, such as images, becoming readily associated with
items, visually-aware recommendation systems (VARS) have been widely used in
different applications. Recent studies have shown that VARS are vulnerable to
item-image adversarial attacks, which add human-imperceptible perturbations to
the clean images associated with those items. Attacks on VARS pose new security
challenges to a wide range of applications such as e-Commerce and social
networks where VARS are widely used. How to secure VARS from such adversarial
attacks becomes a critical problem. Currently, there is still a lack of
systematic study on how to design secure defense strategies against visual
attacks on VARS. In this paper, we attempt to fill this gap by proposing an
adversarial image reconstruction and detection framework to secure VARS. Our
proposed method can simultaneously (1) secure VARS from adversarial attacks
characterized by local perturbations by image reconstruction based on global
vision transformers; and (2) accurately detect adversarial examples using a
novel contrastive learning approach. Meanwhile, our framework is designed to be
used as both a filter and a detector so that they can be jointly trained to
improve the flexibility of our defense strategy to a variety of attacks and
VARS models. We have conducted extensive experimental studies with two popular
attack methods (FGSM and PGD). Our experimental results on two real-world
datasets show that our defense strategy against visual attacks is effective and
outperforms existing methods on different attacks. Moreover, our method can
detect adversarial examples with high accuracy.
- Abstract(参考訳): 画像などのリッチなビジュアルデータとアイテムの関連付けが容易なため、視覚認識レコメンデーションシステム(var)は様々なアプリケーションで広く使われている。
近年の研究では、VARSはアイテムイメージの敵対的攻撃に弱いことが示されており、これらのアイテムに関連するクリーンなイメージに人間に知覚できない摂動を与える。
VARSに対する攻撃は、VARSが広く使用されているEコマースやソーシャルネットワークなど、幅広いアプリケーションに新たなセキュリティ上の課題をもたらす。
このような敵攻撃からVARSを保護する方法が重要な問題となっている。
現在、VARSに対する視覚的攻撃に対してセキュアな防衛戦略を設計する方法に関する体系的な研究が残っていない。
本稿では,VARSをセキュアにするための逆画像再構成・検出フレームワークを提案することで,このギャップを埋めようとしている。
提案手法は,(1)大域的視覚トランスフォーマーに基づく画像再構成による局所摂動を特徴とする敵対的攻撃からのvarsの確保,(2)新しいコントラスト学習手法による攻撃例の高精度検出を同時に行うことができる。
一方,我々のフレームワークは,様々な攻撃やVARSモデルに対する防衛戦略の柔軟性を向上させるために,フィルタと検出器の両方として使用できるように設計されている。
我々は2つの攻撃方法(FGSMとPGD)で広範な実験を行った。
2つの実世界のデータセットにおける実験結果は、視覚的攻撃に対する防御戦略が効果的であり、異なる攻撃に対する既存の方法よりも優れていることを示している。
さらに, 本手法は, 逆例を高精度に検出できる。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Detection Defense Against Adversarial Attacks with Saliency Map [7.736844355705379]
ニューラルネットワークは、人間の視覚にほとんど受容できない敵の例に弱いことがよく確認されている。
既存の防衛は、敵の攻撃に対するモデルの堅牢性を強化する傾向にある。
本稿では,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。
論文 参考訳(メタデータ) (2020-09-06T13:57:17Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - Adversarial Attacks and Detection on Reinforcement Learning-Based
Interactive Recommender Systems [47.70973322193384]
敵の攻撃は、早期にそれらを検出する上で大きな課題となる。
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける攻撃非依存の検出を提案する。
まず, 多様な分布を示すために敵の例を作成し, 潜在的な攻撃を検知して推薦システムを強化した。
論文 参考訳(メタデータ) (2020-06-14T15:41:47Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。