論文の概要: Protecting the integrity of the training procedure of neural networks
- arxiv url: http://arxiv.org/abs/2005.06928v1
- Date: Thu, 14 May 2020 12:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:48:11.687132
- Title: Protecting the integrity of the training procedure of neural networks
- Title(参考訳): ニューラルネットワークのトレーニング手順の完全性を保護する
- Authors: Christian Berghoff
- Abstract要約: ニューラルネットワークは、継続的に増加する多くのアプリケーションに使われます。
ニューラルネットワークの不透明さによって増加するITセキュリティの最も顕著な問題の1つは、トレーニング期間中に攻撃を害する可能性があることである。
本稿では,標準暗号機構を用いてトレーニング手順の整合性を確実に検証する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to significant improvements in performance in recent years, neural
networks are currently used for an ever-increasing number of applications.
However, neural networks have the drawback that their decisions are not readily
interpretable and traceable for a human. This creates several problems, for
instance in terms of safety and IT security for high-risk applications, where
assuring these properties is crucial. One of the most striking IT security
problems aggravated by the opacity of neural networks is the possibility of
so-called poisoning attacks during the training phase, where an attacker
inserts specially crafted data to manipulate the resulting model. We propose an
approach to this problem which allows provably verifying the integrity of the
training procedure by making use of standard cryptographic mechanisms.
- Abstract(参考訳): 近年、パフォーマンスが大幅に向上しているため、ニューラルネットワークはますます多くのアプリケーションで使われている。
しかし、ニューラルネットワークは、その決定が人間にとって容易に解釈可能でトレースできないという欠点がある。
これは、例えば、これらのプロパティが不可欠であるハイリスクアプリケーションの安全性とitセキュリティに関して、いくつかの問題を引き起こす。
ニューラルネットワークの不透明さによって引き起こされるITセキュリティ上の最も顕著な問題のひとつは、トレーニングフェーズ中に、攻撃者が特別に作成されたデータを挿入して結果のモデルを操作する、いわゆる中毒攻撃の可能性である。
本稿では,標準暗号機構を用いてトレーニング手順の整合性を確実に検証する手法を提案する。
関連論文リスト
- Training Safe Neural Networks with Global SDP Bounds [0.0]
本稿では,半定値プログラミング(SDP)を用いたニューラルネットワークの形式的安全性保証によるトレーニング手法を提案する。
本手法は,大規模かつ高次元な入力領域における安全性の検証に焦点をあて,対向境界に着目した既存手法の限界に対処する。
論文 参考訳(メタデータ) (2024-09-15T10:50:22Z) - Training Verifiably Robust Agents Using Set-Based Reinforcement Learning [8.217552831952]
我々は、摂動入力の集合全体を利用してニューラルネットワークを訓練し、最悪の場合の報酬を最大化する。
得られた薬剤は、関連する作業によって得られるエージェントよりも確実に堅牢であり、安全クリティカルな環境に適用できる。
論文 参考訳(メタデータ) (2024-08-17T06:26:17Z) - Constraint-based Adversarial Example Synthesis [1.2548803788632799]
この研究は、ニューラルネットワークを実装するPythonプログラムをテストするための特殊なテクニックであるConcolic Testingの強化に焦点を当てている。
拡張ツールであるPyCTは、浮動小数点演算やアクティベーション関数計算など、幅広いニューラルネットワーク操作に対応している。
論文 参考訳(メタデータ) (2024-06-03T11:35:26Z) - Set-Based Training for Neural Network Verification [8.97708612393722]
小さな入力摂動はニューラルネットワークの出力に大きな影響を与える。
安全クリティカルな環境では、入力はノイズの多いセンサーデータを含むことが多い。
我々は、堅牢なニューラルネットワークをトレーニングして正式な検証を行う、エンドツーエンドのセットベーストレーニング手順を採用している。
論文 参考訳(メタデータ) (2024-01-26T15:52:41Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Experimental Review of Neural-based approaches for Network Intrusion
Management [8.727349339883094]
本稿では,侵入検出問題に適用したニューラルネットワーク手法の実験的検討を行う。
私たちは、ディープベースアプローチやウェイトレスニューラルネットワークを含む、侵入検出に関連する最も顕著なニューラルネットワークベースのテクニックの完全なビューを提供します。
我々の評価は、特に最先端のデータセットを使用してモデルのトレーニングを行う場合、ニューラルネットワークの価値を定量化する。
論文 参考訳(メタデータ) (2020-09-18T18:32:24Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。