論文の概要: SecDD: Efficient and Secure Method for Remotely Training Neural Networks
- arxiv url: http://arxiv.org/abs/2009.09155v1
- Date: Sat, 19 Sep 2020 03:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:51:23.536891
- Title: SecDD: Efficient and Secure Method for Remotely Training Neural Networks
- Title(参考訳): SecDD: ニューラルネットワークを遠隔トレーニングするための効率的かつセキュアな方法
- Authors: Ilia Sucholutsky, Matthias Schonlau
- Abstract要約: 私たちは、ディープラーニングアルゴリズムの最悪の品質と見なされるものを活用しています。
我々は、安全でないチャネル上で遠隔でデプロイされたニューラルネットワークをセキュアかつ効率的に訓練するための方法を作成する。
- 参考スコア(独自算出の注目度): 13.70633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We leverage what are typically considered the worst qualities of deep
learning algorithms - high computational cost, requirement for large data, no
explainability, high dependence on hyper-parameter choice, overfitting, and
vulnerability to adversarial perturbations - in order to create a method for
the secure and efficient training of remotely deployed neural networks over
unsecured channels.
- Abstract(参考訳): 私たちは、安全でないチャネル上でリモートにデプロイされたニューラルネットワークをセキュアかつ効率的にトレーニングするための方法を作成するために、一般的には、ディープラーニングアルゴリズムの最悪の品質である、高い計算コスト、大きなデータの要求、説明責任の欠如、超パラメータ選択への高い依存、過度な適合、および敵の摂動に対する脆弱性を活用する。
関連論文リスト
- Training Safe Neural Networks with Global SDP Bounds [0.0]
本稿では,半定値プログラミング(SDP)を用いたニューラルネットワークの形式的安全性保証によるトレーニング手法を提案する。
本手法は,大規模かつ高次元な入力領域における安全性の検証に焦点をあて,対向境界に着目した既存手法の限界に対処する。
論文 参考訳(メタデータ) (2024-09-15T10:50:22Z) - Scalable and Efficient Methods for Uncertainty Estimation and Reduction
in Deep Learning [0.0]
本稿では,ディープラーニングにおける不確実性推定と削減のためのスケーラブルで効率的な手法について検討する。
アウト・オブ・ディストリビューション・インプットとハードウェアの非理想性に起因する不確実性に対処する。
提案手法は,問題認識学習アルゴリズム,新しいNNトポロジ,ハードウェア共同設計ソリューションを含む。
論文 参考訳(メタデータ) (2024-01-13T19:30:34Z) - Efficient Uncertainty Quantification and Reduction for
Over-Parameterized Neural Networks [23.7125322065694]
不確実性定量化(UQ)は、機械学習モデルの信頼性評価と強化に重要である。
統計学的に保証されたスキームを作成し、主に、過剰パラメータ化ニューラルネットワークの不確実性である、エンフェラクタライズし、エンフェレモーブする。
特に,PNC予測器(Procedural-noise-correcting, Procedural-noise-correcting, PNC)に基づくアプローチでは,適切なラベル付きデータセットでトレーニングされたEmphone補助ネットワークのみを用いることで,手続き的不確実性を取り除く。
論文 参考訳(メタデータ) (2023-06-09T05:15:53Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Hierarchical fuzzy neural networks with privacy preservation for
heterogeneous big data [29.65840169552303]
不均一なビッグデータは、機械学習に多くの課題をもたらす。
プライバシー保護型階層型ファジィニューラルネットワーク(PP-HFNN)を提案する。
トレーニング手順全体がスケーラブルで高速で、バックプロパゲーションに基づいたメソッドのような勾配の解消に苦しむことはない。
論文 参考訳(メタデータ) (2022-09-18T03:53:02Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Protecting the integrity of the training procedure of neural networks [0.0]
ニューラルネットワークは、継続的に増加する多くのアプリケーションに使われます。
ニューラルネットワークの不透明さによって増加するITセキュリティの最も顕著な問題の1つは、トレーニング期間中に攻撃を害する可能性があることである。
本稿では,標準暗号機構を用いてトレーニング手順の整合性を確実に検証する手法を提案する。
論文 参考訳(メタデータ) (2020-05-14T12:57:23Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。