論文の概要: Self-recoverable Adversarial Examples: A New Effective Protection
Mechanism in Social Networks
- arxiv url: http://arxiv.org/abs/2204.12050v1
- Date: Tue, 26 Apr 2022 03:08:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:33:29.862551
- Title: Self-recoverable Adversarial Examples: A New Effective Protection
Mechanism in Social Networks
- Title(参考訳): 自己回復可能なadversarial例:ソーシャルネットワークにおける新しい効果的な保護メカニズム
- Authors: Jiawei Zhang, Jinwei Wang, Hao Wang, Xiangyang Luo
- Abstract要約: 敵の例は、ソーシャルネットワークにおけるプライバシーのセキュリティのための、新しい保護メカニズムとして機能する。
本稿では,自己回復可能な逆数ネットワークを提案し,自己回復可能な逆数ネットワークを提案する。
本手法は,攻撃能力を最大化しながら,回収したサンプルの誤差を最小限に抑え,敵のサンプルの回復性を向上させる。
- 参考スコア(独自算出の注目度): 24.571924553367737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious intelligent algorithms greatly threaten the security of social
users' privacy by detecting and analyzing the uploaded photos to social network
platforms. The destruction to DNNs brought by the adversarial attack sparks the
potential that adversarial examples serve as a new protection mechanism for
privacy security in social networks. However, the existing adversarial example
does not have recoverability for serving as an effective protection mechanism.
To address this issue, we propose a recoverable generative adversarial network
to generate self-recoverable adversarial examples. By modeling the adversarial
attack and recovery as a united task, our method can minimize the error of the
recovered examples while maximizing the attack ability, resulting in better
recoverability of adversarial examples. To further boost the recoverability of
these examples, we exploit a dimension reducer to optimize the distribution of
adversarial perturbation. The experimental results prove that the adversarial
examples generated by the proposed method present superior recoverability,
attack ability, and robustness on different datasets and network architectures,
which ensure its effectiveness as a protection mechanism in social networks.
- Abstract(参考訳): 悪意のあるインテリジェントなアルゴリズムは、ソーシャルネットワークプラットフォームにアップロードされた写真を検出し分析することで、ソーシャルユーザーのプライバシーのセキュリティを脅かす。
敵の攻撃によって引き起こされたDNNの破壊は、敵の例がソーシャルネットワークにおけるプライバシセキュリティの新たな保護メカニズムとして機能する可能性を引き起こす。
しかし、既存の敵の例は効果的な保護機構として機能する回復性を持っていない。
この問題に対処するため,我々は,自己回復可能な攻撃例を生成するための,再生可能な生成型攻撃ネットワークを提案する。
本手法は,敵攻撃とリカバリを統合タスクとしてモデル化することにより,攻撃能力を最大化しながら,回収した事例の誤りを最小限に抑えることができる。
これらの例の復元性をさらに高めるために,次元縮小器を用いて逆摂動の分布を最適化する。
実験結果から,提案手法が生成する敵対的例は,異なるデータセットとネットワークアーキテクチャにおいて優れた回復性,攻撃性,堅牢性を示し,ソーシャルネットワークにおける保護機構としての有効性を実証する。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Towards Improving Robustness Against Common Corruptions in Object
Detectors Using Adversarial Contrastive Learning [10.27974860479791]
本稿では, ニューラルネットワークの強靭性向上と, 対人攻撃と共通汚職の同時防止を目的とした, 革新的な対人的コントラスト学習フレームワークを提案する。
対戦型および実世界の条件下での性能向上に焦点を合わせることで、安全クリティカルなアプリケーションにおけるニューラルネットワークの堅牢性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-11-14T06:13:52Z) - Masking Adversarial Damage: Finding Adversarial Saliency for Robust and
Sparse Network [33.18197518590706]
敵対的な例は、ディープニューラルネットワークの弱い信頼性と潜在的なセキュリティ問題を引き起こす。
本稿では, 対向的損失の2次情報を利用した新しい対向的プルーニング手法, Masking Adversarial damage (MAD)を提案する。
我々は,MADが敵の強靭性を損なうことなく敵の訓練網を効果的に突破し,従来の敵のプルーニング手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-04-06T11:28:06Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。