論文の概要: Improving Deep Learning Model Robustness Against Adversarial Attack by
Increasing the Network Capacity
- arxiv url: http://arxiv.org/abs/2204.11357v1
- Date: Sun, 24 Apr 2022 21:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 23:23:03.505780
- Title: Improving Deep Learning Model Robustness Against Adversarial Attack by
Increasing the Network Capacity
- Title(参考訳): ネットワーク能力の向上による敵攻撃に対する深層学習モデルロバストネスの改善
- Authors: Marco Marchetti and Edmond S. L. Ho
- Abstract要約: 本稿では、ディープラーニングにおけるセキュリティ問題と分析について、実験を用いて、よりレジリエントなモデルの構築に向けて検討する。
敵攻撃に対するDLモデルの堅牢性を改善するために,新たなアプローチの強みと弱みを識別する実験を行った。
- 参考スコア(独自算出の注目度): 4.605037293860087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, we are more and more reliant on Deep Learning (DL) models and thus
it is essential to safeguard the security of these systems. This paper explores
the security issues in Deep Learning and analyses, through the use of
experiments, the way forward to build more resilient models. Experiments are
conducted to identify the strengths and weaknesses of a new approach to improve
the robustness of DL models against adversarial attacks. The results show
improvements and new ideas that can be used as recommendations for researchers
and practitioners to create increasingly better DL algorithms.
- Abstract(参考訳): 現在、私たちはますますディープラーニング(dl)モデルに依存しているため、これらのシステムのセキュリティを保護することが不可欠です。
本稿では,よりレジリエントなモデルの構築に向けて,実験を通じて,深層学習と分析におけるセキュリティ問題を検討する。
敵攻撃に対するDLモデルの堅牢性を改善するために,新たなアプローチの強みと弱みを識別する実験を行った。
結果は、より優れたDLアルゴリズムを作成するために研究者や実践者が推奨できる改善と新しいアイデアを示している。
関連論文リスト
- PGN: A perturbation generation network against deep reinforcement
learning [8.546103661706391]
エージェントを攻撃するための効果的な敵例を作成するための新しい生成モデルを提案する。
深層強化学習の特異性を考慮して,ステルスネスの尺度として行動整合性比を提案する。
論文 参考訳(メタデータ) (2023-12-20T10:40:41Z) - MixBoost: Improving the Robustness of Deep Neural Networks by Boosting
Data Augmentation [6.541721770788069]
我々は,AIモデルのロバスト性対策を包括的に改善する,マスベースのデータ拡張のためのブースティング手法を開発した。
提案手法はモデルの堅牢性を著しく向上するだけでなく,テストセットの精度も向上する。
論文 参考訳(メタデータ) (2022-12-08T03:46:48Z) - A Simple Structure For Building A Robust Model [7.8383976168377725]
本研究では,ある程度のロバスト性を持つモデルを構築するためのシンプルなアーキテクチャを提案し,協調学習のための対向サンプル検出ネットワークを追加することにより,トレーニングネットワークのロバスト性を向上させる。
我々はCifar10データセットに基づいて,この設計の有効性をテストする実験を行った。
論文 参考訳(メタデータ) (2022-04-25T12:30:35Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Robustness of Deep Learning: Theory, Algorithms, and
Applications [27.033174829788404]
本チュートリアルは,ディープラーニングの敵対的堅牢性の基礎を紹介することを目的としている。
我々は、ディープニューラルネットワーク(DNN)の敵攻撃と堅牢性検証における最先端技術を強調します。
深層学習モデルの堅牢性を改善するための効果的な対策も導入する。
論文 参考訳(メタデータ) (2021-08-24T00:08:33Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Improved Adversarial Training via Learned Optimizer [101.38877975769198]
対戦型トレーニングモデルの堅牢性を改善するための枠組みを提案する。
共学習のパラメータモデルの重み付けにより、提案するフレームワークは、更新方向に対するロバスト性とステップの適応性を一貫して改善する。
論文 参考訳(メタデータ) (2020-04-25T20:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。