論文の概要: Chaotic Variational Auto encoder-based Adversarial Machine Learning
- arxiv url: http://arxiv.org/abs/2302.12959v1
- Date: Sat, 25 Feb 2023 02:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:43:54.436001
- Title: Chaotic Variational Auto encoder-based Adversarial Machine Learning
- Title(参考訳): カオス変分オートエンコーダに基づく逆数機械学習
- Authors: Pavan Venkata Sainadh Reddy, Yelleti Vivek, Gopi Pranay, Vadlamani
Ravi
- Abstract要約: 変分オート(VAE)による対向サンプル生成に基づく新たな攻撃機構を提案する。
我々は,ロジスティック回帰 (LR) モデルと決定木 (DT) モデルに対して,Evasion と Data-Poison の攻撃を行った。
その結果、VAE-Deep-WNNは残りのデータセットやモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 3.773653335175799
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine Learning (ML) has become the new contrivance in almost every field.
This makes them a target of fraudsters by various adversary attacks, thereby
hindering the performance of ML models. Evasion and Data-Poison-based attacks
are well acclaimed, especially in finance, healthcare, etc. This motivated us
to propose a novel computationally less expensive attack mechanism based on the
adversarial sample generation by Variational Auto Encoder (VAE). It is well
known that Wavelet Neural Network (WNN) is considered computationally efficient
in solving image and audio processing, speech recognition, and time-series
forecasting. This paper proposed VAE-Deep-Wavelet Neural Network
(VAE-Deep-WNN), where Encoder and Decoder employ WNN networks. Further, we
proposed chaotic variants of both VAE with Multi-layer perceptron (MLP) and
Deep-WNN and named them C-VAE-MLP and C-VAE-Deep-WNN, respectively. Here, we
employed a Logistic map to generate random noise in the latent space. In this
paper, we performed VAE-based adversary sample generation and applied it to
various problems related to finance and cybersecurity domain-related problems
such as loan default, credit card fraud, and churn modelling, etc., We
performed both Evasion and Data-Poison attacks on Logistic Regression (LR) and
Decision Tree (DT) models. The results indicated that VAE-Deep-WNN outperformed
the rest in the majority of the datasets and models. However, its chaotic
variant C-VAE-Deep-WNN performed almost similarly to VAE-Deep-WNN in the
majority of the datasets.
- Abstract(参考訳): 機械学習(ML)は,ほぼすべての分野において,新たなコントリビューションとなっている。
これにより、さまざまな敵攻撃による不正行為の標的となり、MLモデルのパフォーマンスを阻害する。
EvasionとData-Poisonベースの攻撃は、特に金融、医療などにおいて、よく称賛されている。
そこで我々は,変分オートエンコーダ(VAE)による対数サンプル生成に基づく,計算コストの低い新たな攻撃機構を提案する。
ウェーブレットニューラルネットワーク(WNN)は,画像処理や音声処理,音声認識,時系列予測において計算効率が高いと考えられる。
本稿では,EncoderとDecoderがWNNネットワークを利用するVAE-Deep-Wavelet Neural Network(VAE-Deep-WNN)を提案する。
さらに,多層パーセプトロン(MLP)とDeep-WNNを併用したVAEのカオス変種を提案し,それぞれC-VAE-MLPとC-VAE-Deep-WNNと名付けた。
ここでは,潜在空間におけるランダムノイズを生成するためのロジスティックマップを用いた。
本稿では,VAEをベースとした敵対的サンプル生成を行い,ローンのデフォルトやクレジットカード詐欺,チャーンモデリングなど,金融・サイバーセキュリティドメイン関連の諸問題に応用し,ロジスティック回帰(LR)モデルと決定木(DT)モデルに対するエクスベイジョンとデータ・ポゾンの攻撃を行った。
結果は、VAE-Deep-WNNが残りのデータセットやモデルよりも優れていたことを示している。
しかし、そのカオス的な変種であるC-VAE-Deep-WNNは、ほとんどのデータセットにおいて、VAE-Deep-WNNとほぼ同様の性能を示した。
関連論文リスト
- VQUNet: Vector Quantization U-Net for Defending Adversarial Atacks by Regularizing Unwanted Noise [0.5755004576310334]
本稿では,新たなノイズ低減手法であるベクトル量子化U-Net(VQUNet)を導入し,対向雑音を低減し,高忠実度でデータを再構成する。
VQUNetは、ノイズ低減とデータ再構成の両方のためのマルチスケール階層構造を通して、離散潜在表現学習を特徴とする。
これは、Fashion-MNISTとCIFAR10データセットの両方に対する様々な敵攻撃の下で、最先端のノイズ低減ベースの防衛手法より優れている。
論文 参考訳(メタデータ) (2024-06-05T10:10:03Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Hardware-aware training for large-scale and diverse deep learning
inference workloads using in-memory computing-based accelerators [7.152059921639833]
大規模なディープニューラルネットワークの多くは、AIMC上での等精度を示すために、再訓練が成功できることが示されている。
以上の結果から,重みではなく入力や出力にノイズを加えるAIMCの非理想性が,DNNの精度に最も影響を与えることが示唆された。
論文 参考訳(メタデータ) (2023-02-16T18:25:06Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。