論文の概要: Effect of backdoor attacks over the complexity of the latent space
distribution
- arxiv url: http://arxiv.org/abs/2012.01931v1
- Date: Sun, 29 Nov 2020 00:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:02:34.937561
- Title: Effect of backdoor attacks over the complexity of the latent space
distribution
- Title(参考訳): 潜在空間分布の複雑さに及ぼすバックドア攻撃の影響
- Authors: Henry D. Chacon and Paul Rad
- Abstract要約: バックドア攻撃の存在下では、入力空間の複雑さが変化し、モデルのトレーニングに直接影響を与えるクラス間の類似性を誘導する。
その結果,入力に付加されたバックドアトリガにより潜伏空間のエントロピーが約27%増加することがわかった。
- 参考スコア(独自算出の注目度): 2.3605348648054463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The input space complexity determines the model's capabilities to extract
their knowledge and translate the space of attributes into a function which is
assumed in general, as a concatenation of non-linear functions between layers.
In the presence of backdoor attacks, the space complexity changes, and induces
similarities between classes that directly affect the model's training. As a
consequence, the model tends to overfit the input set. In this research, we
suggest the D-vine Copula Auto-Encoder (VCAE) as a tool to estimate the latent
space distribution under the presence of backdoor triggers. Since no
assumptions are made on the distribution estimation, like in Variational
Autoencoders (VAE). It is possible to observe the backdoor stamp in
non-attacked categories randomly generated. We exhibit the differences between
a clean model (baseline) and the attacked one (backdoor) in a pairwise
representation of the distribution. The idea is to illustrate the dependency
structure change in the input space induced by backdoor features. Finally, we
quantify the entropy's changes and the Kullback-Leibler divergence between
models. In our results, we found the entropy in the latent space increases by
around 27\% due to the backdoor trigger added to the input
- Abstract(参考訳): 入力空間の複雑性は、モデルが知識を抽出し、属性の空間を一般に仮定された関数に変換する能力を決定する。
バックドア攻撃が存在する場合、空間の複雑さは変化し、モデルのトレーニングに直接影響を及ぼすクラス間の類似性を誘発する。
その結果、モデルは入力セットに過度に適合する傾向にある。
本研究では,D-vine Copula Auto-Encoder (VCAE) をバックドアトリガの存在下での潜伏空間分布の推定ツールとして提案する。
変分オートエンコーダ (VAE) のように, 分布推定には仮定が存在しない。
非攻撃カテゴリでランダムに生成されたバックドアスタンプを観察することができる。
我々は, クリーンモデル (ベースライン) と攻撃対象モデル (バックドア) の違いを, 分布のペアワイズ表現で示す。
バックドアの特徴によって引き起こされる入力空間の依存性構造の変化を説明する。
最後に、エントロピーの変化とモデル間のクルバック・リーブラーのばらつきを定量化する。
その結果,入力にバックドアトリガーが加えられたことにより,潜在空間のエントロピーが約27\%増加することがわかった。
関連論文リスト
- TERD: A Unified Framework for Safeguarding Diffusion Models Against Backdoors [36.07978634674072]
拡散モデルは、その完全性を損なうバックドア攻撃に弱い。
本稿では,現在の攻撃に対する統一モデリングを構築するバックドアディフェンスフレームワークであるTERDを提案する。
TERDは、さまざまな解像度のデータセットにまたがる100%のTrue Positive Rate(TPR)とTrue Negative Rate(TNR)を保証します。
論文 参考訳(メタデータ) (2024-09-09T03:02:16Z) - Resilience of Entropy Model in Distributed Neural Networks [7.6340310234573465]
エントロピー符号化は、通信オーバーヘッドをさらに減らすために導入された。
本稿では,エントロピーモデルの意図的干渉と意図的干渉に対するレジリエンスについて検討する。
本研究では,攻撃入力の送信オーバーヘッドを約9%削減できる新しい防御機構を提案する。
論文 参考訳(メタデータ) (2024-03-01T19:39:19Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - Backdoor Learning on Sequence to Sequence Models [94.23904400441957]
本稿では,シークエンス・ツー・シークエンス(seq2seq)モデルがバックドア攻撃に対して脆弱かどうかを検討する。
具体的には、データセットの0.2%のサンプルを注入するだけで、Seq2seqモデルに指定されたキーワードと文全体を生成することができる。
機械翻訳とテキスト要約に関する大規模な実験を行い、提案手法が複数のデータセットやモデルに対して90%以上の攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2023-05-03T20:31:13Z) - Combating Mode Collapse in GANs via Manifold Entropy Estimation [70.06639443446545]
Generative Adversarial Networks (GAN) は、様々なタスクやアプリケーションにおいて魅力的な結果を示している。
GANのモード崩壊問題に対処するための新しいトレーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2022-08-25T12:33:31Z) - Imperceptible Backdoor Attack: From Input Space to Feature
Representation [24.82632240825927]
バックドア攻撃はディープニューラルネットワーク(DNN)への脅威が急速に高まっている
本稿では,既存の攻撃手法の欠点を分析し,新たな非受容的バックドア攻撃を提案する。
我々のトリガーは、良性画像の1%以下のピクセルしか変更せず、大きさは1。
論文 参考訳(メタデータ) (2022-05-06T13:02:26Z) - Planting Undetectable Backdoors in Machine Learning Models [14.592078676445201]
悪意ある学習者が検出不能なバックドアを分類器に組み込む方法を示す。
適切な"バックドアキー"がなければ、そのメカニズムは隠され、計算に拘束されたオブザーバによって検出できない。
検出不能なバックドアを植え付けるための2つのフレームワークを示す。
論文 参考訳(メタデータ) (2022-04-14T13:55:21Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Can Adversarial Weight Perturbations Inject Neural Backdoors? [22.83199547214051]
敵対的機械学習は、ニューラルネットワークのいくつかのセキュリティリスクを露呈している。
モデル重みの逆方向摂動を,元のモデルの予測に対する複合的損失を用いて導入する。
実験の結果,バックドアはモデル重量値の平均相対変化が極めて小さい状態で注入可能であることがわかった。
論文 参考訳(メタデータ) (2020-08-04T18:26:13Z) - Discrete Variational Attention Models for Language Generation [51.88612022940496]
本稿では,言語における離散性に起因する注意機構のカテゴリー分布を考慮した離散的変動注意モデルを提案する。
離散性の特質により,提案手法の訓練は後部崩壊に支障を来さない。
論文 参考訳(メタデータ) (2020-04-21T05:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。