論文の概要: A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models
- arxiv url: http://arxiv.org/abs/2010.08546v1
- Date: Sat, 17 Oct 2020 17:18:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 09:12:48.405905
- Title: A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models
- Title(参考訳): ディープラーニングモデルと線形分類器モデルの生成モデルに基づく敵対的セキュリティ
- Authors: erhat Ozgur Catak and Samed Sivaslioglu and Kevser Sahinbas
- Abstract要約: 我々は,オートエンコーダモデルを用いた機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主な考え方は、トレーニングされたモデルを操作することによって誤った結果を生成することである。
また、ディープニューラルネットワークから従来のアルゴリズムに至るまで、様々な攻撃手法に対するオートエンコーダモデルの性能についても紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, machine learning algorithms have been applied widely in
various fields such as health, transportation, and the autonomous car. With the
rapid developments of deep learning techniques, it is critical to take the
security concern into account for the application of the algorithms. While
machine learning offers significant advantages in terms of the application of
algorithms, the issue of security is ignored. Since it has many applications in
the real world, security is a vital part of the algorithms. In this paper, we
have proposed a mitigation method for adversarial attacks against machine
learning models with an autoencoder model that is one of the generative ones.
The main idea behind adversarial attacks against machine learning models is to
produce erroneous results by manipulating trained models. We have also
presented the performance of autoencoder models to various attack methods from
deep neural networks to traditional algorithms by using different methods such
as non-targeted and targeted attacks to multi-class logistic regression, a fast
gradient sign method, a targeted fast gradient sign method and a basic
iterative method attack to neural networks for the MNIST dataset.
- Abstract(参考訳): 近年, 健康, 交通, 自動運転車など, さまざまな分野に機械学習アルゴリズムが応用されている。
ディープラーニング技術の急速な発展に伴い、アルゴリズムの適用を考慮し、セキュリティ上の懸念を考慮に入れることが重要である。
機械学習はアルゴリズムの適用に関して大きな利点があるが、セキュリティの問題は無視されている。
現実世界には多くのアプリケーションがあるので、セキュリティはアルゴリズムの重要な部分です。
本稿では,生成型モデルの一つであるオートエンコーダモデルを用いて,機械学習モデルに対する敵意攻撃の軽減法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主なアイデアは、トレーニングされたモデルを操作することによって誤った結果を生み出すことである。
また,マルチクラスロジスティック回帰に対する非標的的および標的的攻撃,高速勾配符号法,標的高速勾配符号法,mnistデータセットのためのニューラルネットワークへの反復的攻撃といった異なる手法を用いて,ディープニューラルネットワークから従来のアルゴリズムへの様々な攻撃手法に対するオートエンコーダモデルの性能を示した。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [65.57123249246358]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - A Tutorial on Adversarial Learning Attacks and Countermeasures [0.0]
機械学習モデルは、それを明示的にプログラムすることなく、高精度な予測を行うことができる。
敵の学習攻撃は 深刻なセキュリティの脅威を 引き起こす
本稿では、敵対的学習の原理を詳細に解説し、異なる攻撃シナリオを説明し、この脅威に対する最先端の防御機構について深い洞察を与える。
論文 参考訳(メタデータ) (2022-02-21T17:14:45Z) - Automated Decision-based Adversarial Attacks [48.01183253407982]
我々は、実用的で挑戦的な意思決定ベースのブラックボックスの敵意設定を考える。
この設定では、攻撃者はターゲットモデルに問い合わせるだけで最終分類ラベルを取得できる。
意思決定に基づく攻撃アルゴリズムを自動的に発見する。
論文 参考訳(メタデータ) (2021-05-09T13:15:10Z) - Security Concerns on Machine Learning Solutions for 6G Networks in
mmWave Beam Prediction [0.0]
人工知能(AI)モデルのセキュリティ上の懸念は通常、科学コミュニティによって無視されます。
本稿では,提案する6G機械学習モデルに対する敵攻撃の軽減手法を提案する。
また,mmWaveビーム予測アプリケーションにおける6Gセキュリティのための逆学習緩和手法の性能について述べる。
論文 参考訳(メタデータ) (2021-05-09T10:38:53Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。