論文の概要: Dynamics-aware Adversarial Attack of 3D Sparse Convolution Network
- arxiv url: http://arxiv.org/abs/2112.09428v1
- Date: Fri, 17 Dec 2021 10:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:02:41.973031
- Title: Dynamics-aware Adversarial Attack of 3D Sparse Convolution Network
- Title(参考訳): 3次元スパース畳み込みネットワークのダイナミックスアウェア逆攻撃
- Authors: An Tao and Yueqi Duan and He Wang and Ziyi Wu and Pengliang Ji and
Haowen Sun and Jie Zhou and Jiwen Lu
- Abstract要約: ディープニューラルネットワークにおける動的に認識される敵攻撃問題について検討する。
ほとんどの既存の敵攻撃アルゴリズムは基本的な前提の下で設計されており、ネットワークアーキテクチャは攻撃プロセス全体を通して固定されている。
本稿では,LGM(Leaded Gradient Method)を提案する。
- 参考スコア(独自算出の注目度): 75.1236305913734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the dynamics-aware adversarial attack problem
in deep neural networks. Most existing adversarial attack algorithms are
designed under a basic assumption -- the network architecture is fixed
throughout the attack process. However, this assumption does not hold for many
recently proposed networks, e.g. 3D sparse convolution network, which contains
input-dependent execution to improve computational efficiency. It results in a
serious issue of lagged gradient, making the learned attack at the current step
ineffective due to the architecture changes afterward. To address this issue,
we propose a Leaded Gradient Method (LGM) and show the significant effects of
the lagged gradient. More specifically, we re-formulate the gradients to be
aware of the potential dynamic changes of network architectures, so that the
learned attack better "leads" the next step than the dynamics-unaware methods
when network architecture changes dynamically. Extensive experiments on various
datasets show that our LGM achieves impressive performance on semantic
segmentation and classification. Compared with the dynamic-unaware methods, LGM
achieves about 20% lower mIoU averagely on the ScanNet and S3DIS datasets. LGM
also outperforms the recent point cloud attacks.
- Abstract(参考訳): 本稿では,ディープニューラルネットワークにおけるダイナミクス・アウェア・アドバーサリー・アタック問題について検討する。
既存の攻撃アルゴリズムの多くは、基本的な前提の下で設計されている -- ネットワークアーキテクチャは攻撃プロセスを通じて固定されている。
しかし、この仮定は近年提案されている3次元スパース畳み込みネットワークなど、計算効率を向上させるために入力依存の実行を含む多くのネットワークには当てはまらない。
結果として、遅延勾配の深刻な問題が発生し、アーキテクチャ変更後の現在のステップでの学習された攻撃が非効率になる。
この問題に対処するため,本研究ではリード勾配法(lgm)を提案し,遅延勾配の有意な影響を示す。
より具体的には、ネットワークアーキテクチャの潜在的な動的変化を認識するために勾配を再定式化し、ネットワークアーキテクチャが動的に変化するときの動的なメソッドよりも、学習した攻撃が次のステップを「リード」するようにします。
各種データセットに対する大規模な実験により,LGMはセマンティックセグメンテーションと分類において優れた性能を発揮することが示された。
動的無意識の手法と比較して、LGMはScanNetとS3DISデータセットで平均20%低いmIoUを達成する。
LGMは最近のクラウド攻撃よりも優れています。
関連論文リスト
- Are GATs Out of Balance? [73.2500577189791]
本稿では,ノード近傍のアグリゲーションをパラメータ化注意係数で重み付けするグラフ注意ネットワーク(GAT)について検討する。
我々の主定理は、注意機構を持つ正の同次モデルの学習力学を研究するための足掛かりとなる。
論文 参考訳(メタデータ) (2023-10-11T06:53:05Z) - GradMDM: Adversarial Attack on Dynamic Networks [10.948810070861525]
我々は,新しいアルゴリズムであるGradMDMを用いて動的モデルを攻撃する。
GradMDMは勾配の方向と大きさを調整し、入力ごとに小さな摂動を効果的に見つける。
複数のデータセットおよび動的モデル上でGradMDMを評価し、従来のエネルギー指向攻撃手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-01T09:07:12Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Improving Neural Network Robustness through Neighborhood Preserving
Layers [0.751016548830037]
このような層を組み込むことができ、効率的にトレーニングできる新しいニューラルネットワークアーキテクチャを実証する。
我々は、設計したネットワークアーキテクチャが、最先端の勾配に基づく攻撃に対してより堅牢であることを実証的に示す。
論文 参考訳(メタデータ) (2021-01-28T01:26:35Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Improved Gradient based Adversarial Attacks for Quantized Networks [15.686134908061995]
量子化されたネットワークは、勾配が消える問題に悩まされ、頑健さの偽の感覚を示す。
トレーニングネットワークにおける信号伝搬の低下に起因する勾配の低減により,この問題を緩和するための簡単な温度スケーリング手法を導入する。
論文 参考訳(メタデータ) (2020-03-30T14:34:08Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。