論文の概要: BAMSProd: A Step towards Generalizing the Adaptive Optimization Methods
to Deep Binary Model
- arxiv url: http://arxiv.org/abs/2009.13799v1
- Date: Tue, 29 Sep 2020 06:12:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 06:38:51.104759
- Title: BAMSProd: A Step towards Generalizing the Adaptive Optimization Methods
to Deep Binary Model
- Title(参考訳): BAMSProd: 適応最適化手法をディープバイナリモデルに一般化するためのステップ
- Authors: Junjie Liu, Dongchao Wen, Deyu Wang, Wei Tao, Tse-Wei Chen, Kinya Osa,
Masami Kato
- Abstract要約: 最近のBNN(Binary Neural Networks)の性能は大幅に低下している。
BNNの効果的かつ効率的なトレーニングを保証することは未解決の問題である。
そこで本研究では,BAMSProdアルゴリズムを用いて,深部二元モデルの収束特性が量子化誤差と強く関連していることを示す。
- 参考スコア(独自算出の注目度): 34.093978443640616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent methods have significantly reduced the performance degradation of
Binary Neural Networks (BNNs), but guaranteeing the effective and efficient
training of BNNs is an unsolved problem. The main reason is that the estimated
gradients produced by the Straight-Through-Estimator (STE) mismatches with the
gradients of the real derivatives. In this paper, we provide an explicit convex
optimization example where training the BNNs with the traditionally adaptive
optimization methods still faces the risk of non-convergence, and identify that
constraining the range of gradients is critical for optimizing the deep binary
model to avoid highly suboptimal solutions. For solving above issues, we
propose a BAMSProd algorithm with a key observation that the convergence
property of optimizing deep binary model is strongly related to the
quantization errors. In brief, it employs an adaptive range constraint via an
errors measurement for smoothing the gradients transition while follows the
exponential moving strategy from AMSGrad to avoid errors accumulation during
the optimization. The experiments verify the corollary of theoretical
convergence analysis, and further demonstrate that our optimization method can
speed up the convergence about 1:2x and boost the performance of BNNs to a
significant level than the specific binary optimizer about 3:7%, even in a
highly non-convex optimization problem.
- Abstract(参考訳): 近年,BNNの性能劣化は著しく低減されているが,BNNの効果的かつ効率的なトレーニングを保証することは未解決の問題である。
主な理由は、STE(Straight-Through-Estimator)による推定勾配が、実微分の勾配と一致しないからである。
本稿では,従来の適応最適化手法を用いてBNNをトレーニングする場合,非収束のリスクに直面した上で,高度に最適化された解を避けるために,勾配範囲の制約が重大であることを示す。
上記の問題を解くために,深部二元モデル最適化の収束特性が量子化誤差と強く関係していることを示す重要な観測値を持つBAMSProdアルゴリズムを提案する。
簡単に言えば、最適化中にエラーの蓄積を避けるために、AMSGradからの指数的な移動戦略に従いながら、勾配遷移を円滑化するための誤差測定による適応範囲制約を用いる。
実験では, 理論収束解析の行程を検証し, 最適化手法が1:2x程度の収束を高速化し, BNNの性能を3:7%程度まで向上させることができることを示した。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Enhancing Gaussian Process Surrogates for Optimization and Posterior Approximation via Random Exploration [2.984929040246293]
ガウス過程シュロゲートモデルの精度を高めるために、ランダムな探索ステップに依存する新しいノイズフリーベイズ最適化戦略。
新しいアルゴリズムは、古典的なGP-UCBの実装の容易さを維持しているが、さらなる探索がそれらの収束を促進する。
論文 参考訳(メタデータ) (2024-01-30T14:16:06Z) - Data-driven evolutionary algorithm for oil reservoir well-placement and
control optimization [3.012067935276772]
一般化されたデータ駆動進化アルゴリズム(GDDE)は、適切な配置と制御最適化問題で実行されるシミュレーションの数を減らすために提案される。
確率的ニューラルネットワーク(PNN)は、情報的および有望な候補を選択するための分類器として採用されている。
論文 参考訳(メタデータ) (2022-06-07T09:07:49Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Adaptive Sampling of Pareto Frontiers with Binary Constraints Using
Regression and Classification [0.0]
本稿では,二項制約を持つブラックボックス多目的最適化問題に対する適応最適化アルゴリズムを提案する。
本手法は確率的回帰モデルと分類モデルに基づいており,最適化目標のサロゲートとして機能する。
また,予想される超体積計算を高速化するために,新しい楕円形トランケーション法を提案する。
論文 参考訳(メタデータ) (2020-08-27T09:15:02Z) - Iterative Surrogate Model Optimization (ISMO): An active learning
algorithm for PDE constrained optimization with deep neural networks [14.380314061763508]
反復代理モデル最適化(ISMO)と呼ばれる新しい能動学習アルゴリズムを提案する。
このアルゴリズムはディープニューラルネットワークに基づいており、その重要な特徴は、ディープニューラルネットワークと基礎となる標準最適化アルゴリズムの間のフィードバックループを通じて、トレーニングデータの反復的な選択である。
論文 参考訳(メタデータ) (2020-08-13T07:31:07Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。