論文の概要: Being Patient and Persistent: Optimizing An Early Stopping Strategy for
Deep Learning in Profiled Attacks
- arxiv url: http://arxiv.org/abs/2111.14416v1
- Date: Mon, 29 Nov 2021 09:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 01:29:13.951295
- Title: Being Patient and Persistent: Optimizing An Early Stopping Strategy for
Deep Learning in Profiled Attacks
- Title(参考訳): 患者と永続性:プロファイルアタックにおけるディープラーニングの早期停止戦略の最適化
- Authors: Servio Paguada, Lejla Batina, Ileana Buhan, Igor Armendariz
- Abstract要約: 本稿では,学習中のモデルの最適状態を確実に認識する早期停止アルゴリズムを提案する。
ディープラーニングモデルが最適であるためには,永続性と忍耐という2つの条件を定式化する。
- 参考スコア(独自算出の注目度): 2.7748013252318504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The absence of an algorithm that effectively monitors deep learning models
used in side-channel attacks increases the difficulty of evaluation. If the
attack is unsuccessful, the question is if we are dealing with a resistant
implementation or a faulty model. We propose an early stopping algorithm that
reliably recognizes the model's optimal state during training. The novelty of
our solution is an efficient implementation of guessing entropy estimation.
Additionally, we formalize two conditions, persistence and patience, for a deep
learning model to be optimal. As a result, the model converges with fewer
traces.
- Abstract(参考訳): サイドチャネル攻撃で使用されるディープラーニングモデルを効果的に監視するアルゴリズムがないと、評価の難しさが増す。
攻撃が失敗した場合、私たちは耐性のある実装や欠陥のあるモデルに対処しています。
学習中にモデルの最適状態を確実に認識する早期停止アルゴリズムを提案する。
我々の解の新規性は、推定エントロピー推定の効率的な実装である。
さらに,ディープラーニングモデルが最適であるためには,永続性と忍耐という2つの条件を定式化する。
結果として、モデルはより少ないトレースで収束する。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Keeping Deep Learning Models in Check: A History-Based Approach to
Mitigate Overfitting [18.952459066212523]
オーバーフィッティングは、ディープラーニングモデルを利用するソフトウェアシステムの品質、信頼性、信頼性に影響を与える。
トレーニング履歴に基づいてオーバーフィットの検出と防止を両立できる,シンプルかつ強力なアプローチを提案する。
提案手法はF1スコアが0.91であり, 現行の非侵襲的オーバーフィッティング検出法よりも5%高い値である。
論文 参考訳(メタデータ) (2024-01-18T19:56:27Z) - Adaptive Sparse Gaussian Process [0.0]
これらの問題に対処できる最初の適応スパースガウスプロセス(GP)を提案する。
まず,変分スパースGPアルゴリズムを変形係数によって適応的に再構成する。
そこで我々は,新しいサンプルが到着するたびに,スパースGPモデルの単一誘導点と残りのモデルパラメータを同時に更新することを提案する。
論文 参考訳(メタデータ) (2023-02-20T21:34:36Z) - Constrained Online Two-stage Stochastic Optimization: Near Optimal Algorithms via Adversarial Learning [1.994307489466967]
有限地平線上の長期制約付きオンライン2段階最適化をT$周期で検討する。
対戦型学習アルゴリズムからオンライン二段階問題のオンラインアルゴリズムを開発する。
論文 参考訳(メタデータ) (2023-02-02T10:33:09Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - On Optimal Early Stopping: Over-informative versus Under-informative
Parametrization [13.159777131162961]
我々は,最適早期停止時間とモデル次元の関係を明らかにするために理論的結果を開発する。
実験により、最適な早期停止時間に関する理論的結果は、ディープニューラルネットワークのトレーニングプロセスと一致することを示した。
論文 参考訳(メタデータ) (2022-02-20T18:20:06Z) - Revisiting and Advancing Fast Adversarial Training Through The Lens of
Bi-Level Optimization [60.72410937614299]
提案手法は,2レベルAT(FAST-BAT)と呼ばれる新しいアルゴリズムセットの設計と解析である。
FAST-BATは、グラデーションサインメソッドや明示的なロバスト正規化を呼ぶことなく、符号ベースの投射降下(PGD)攻撃を防御することができる。
論文 参考訳(メタデータ) (2021-12-23T06:25:36Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Model-Augmented Actor-Critic: Backpropagating through Paths [81.86992776864729]
現在のモデルに基づく強化学習アプローチでは、単に学習されたブラックボックスシミュレータとしてモデルを使用する。
その微分可能性を利用してモデルをより効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2020-05-16T19:18:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。