論文の概要: An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks
- arxiv url: http://arxiv.org/abs/2203.10930v1
- Date: Fri, 11 Mar 2022 10:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-27 11:05:43.359780
- Title: An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks
- Title(参考訳): 自動エンコーダブロックスイッチング防御手法による敵対的攻撃の防止
- Authors: Anirudh Yadav, Ashutosh Upadhyay, S.Sharanya
- Abstract要約: 逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: According to recent studies, the vulnerability of state-of-the-art Neural
Networks to adversarial input samples has increased drastically. A neural
network is an intermediate path or technique by which a computer learns to
perform tasks using Machine learning algorithms. Machine Learning and
Artificial Intelligence model has become a fundamental aspect of life, such as
self-driving cars [1], smart home devices, so any vulnerability is a
significant concern. The smallest input deviations can fool these extremely
literal systems and deceive their users as well as administrator into
precarious situations. This article proposes a defense algorithm that utilizes
the combination of an auto-encoder [3] and block-switching architecture.
Auto-coder is intended to remove any perturbations found in input images
whereas the block switching method is used to make it more robust against
White-box attacks. The attack is planned using FGSM [9] model, and the
subsequent counter-attack by the proposed architecture will take place thereby
demonstrating the feasibility and security delivered by the algorithm.
- Abstract(参考訳): 最近の研究によると、敵の入力サンプルに対する最先端ニューラルネットワークの脆弱性は劇的に増加している。
ニューラルネットワークは、コンピュータが機械学習アルゴリズムを用いてタスクを実行することを学習する中間経路または技法である。
機械学習と人工知能モデルは、自動運転車[1]、スマートホームデバイスなど、生活の基本的な側面となり、あらゆる脆弱性が重大な懸念となっている。
最小限の入力偏差は、これらの極めてリテラルなシステムを騙し、ユーザや管理者を偽装する可能性がある。
本稿では,自動エンコーダ[3]とブロックスイッチングアーキテクチャの組み合わせを利用したディフェンスアルゴリズムを提案する。
オートコーダは、入力画像にある摂動を取り除くことを意図しているが、ブロック切替方式は、ホワイトボックス攻撃に対してより堅牢にするために使用される。
攻撃はFGSM[9]モデルを用いて計画されており、提案アーキテクチャによるその後の反撃により、アルゴリズムによる実現可能性とセキュリティが証明される。
関連論文リスト
- Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Automating Defense Against Adversarial Attacks: Discovery of
Vulnerabilities and Application of Multi-INT Imagery to Protect Deployed
Models [0.0]
マルチスペクトル画像アレイとアンサンブル学習者が敵対的攻撃と戦うことを評価します。
サイバーネットワークを守るために、攻撃的(赤チーム)と防御的(青チーム)の両方のアプローチのテクニックを大まかに組み合わせます。
論文 参考訳(メタデータ) (2021-03-29T19:07:55Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models [0.0]
我々は,オートエンコーダモデルを用いた機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主な考え方は、トレーニングされたモデルを操作することによって誤った結果を生成することである。
また、ディープニューラルネットワークから従来のアルゴリズムに至るまで、様々な攻撃手法に対するオートエンコーダモデルの性能についても紹介した。
論文 参考訳(メタデータ) (2020-10-17T17:18:17Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Hardware Accelerator for Adversarial Attacks on Deep Learning Neural
Networks [7.20382137043754]
強靭な物理的摂動を生成するために, 対向攻撃ネットワークアルゴリズムのクラスが提案されている。
本稿では,メムリスタクロスバーアレーをベースとした敵攻撃用ハードウェアアクセラレータを提案する。
論文 参考訳(メタデータ) (2020-08-03T21:55:41Z) - NAttack! Adversarial Attacks to bypass a GAN based classifier trained to
detect Network intrusion [0.3007949058551534]
機械学習の台頭以前、攻撃を示唆するネットワーク異常は、巧妙なルールを用いて検出された。
ネットワーク異常に対する機械学習の進歩により、人間がサイバー防御システムをバイパスする方法を理解することは容易ではない。
本稿では, 分類器を構築し, ネットワークデータの逆例で訓練しても, 敵攻撃を利用でき, システムを破壊することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T01:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。