論文の概要: Application of Monte Carlo Stochastic Optimization (MOST) to Deep
Learning
- arxiv url: http://arxiv.org/abs/2109.02441v1
- Date: Thu, 2 Sep 2021 05:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:29:06.744833
- Title: Application of Monte Carlo Stochastic Optimization (MOST) to Deep
Learning
- Title(参考訳): モンテカルロ確率最適化(MOST)のディープラーニングへの応用
- Authors: Sin-ichi Inage, Hana Hebishima
- Abstract要約: 本稿では,著者らが提案したモンテカルロ最適化(MOST)をXORゲートの深層学習に適用する。
その結果,既存の方法よりも早く収束することが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we apply the Monte Carlo stochastic optimization (MOST)
proposed by the authors to a deep learning of XOR gate and verify its
effectiveness. Deep machine learning based on neural networks is one of the
most important keywords driving innovation in today's highly advanced
information society. Therefore, there has been active research on large-scale,
high-speed, and high-precision systems. For the purpose of efficiently
searching the optimum value of the objective function, the author divides the
search region of a multivariable parameter constituting the objective function
into two by each parameter, numerically finds the integration of the two
regions by the Monte Carlo method, compares the magnitude of the integration
value, and judges that there is an optimum point in a small region. In the
previous paper, we examined the problem of the benchmark in the optimization
method. This method is applied to neural networks of XOR gate, and compared
with the results of weight factor optimization by Adam and genetic algorithm.
As a result, it was confirmed that it converged faster than the existing
method.
- Abstract(参考訳): 本稿では,著者らが提案したモンテカルロ確率最適化(MOST)をXORゲートの深層学習に適用し,その有効性を検証する。
ニューラルネットワークに基づくディープラーニングは、今日の高度情報社会におけるイノベーションを駆動する最も重要なキーワードの1つである。
そのため、大規模・高速・高精度のシステムの研究が盛んである。
目的関数の最適値を効率的に探索するために、著者は目的関数を構成する多変数パラメータの探索領域をパラメータ毎に2つに分割し、モンテカルロ法による2つの領域の統合を数値的に発見し、積分値の大きさを比較し、小さな領域に最適点が存在すると判断する。
本稿では,最適化手法におけるベンチマークの問題点について検討した。
この手法はxorゲートのニューラルネットワークに適用され、adamとgenetic algorithmによる重み係数最適化の結果と比較される。
その結果,既存の方法よりも早く収束することが確認された。
関連論文リスト
- Enhancing CNN Classification with Lamarckian Memetic Algorithms and Local Search [0.0]
そこで本研究では,局所探索機能を組み込んだ2段階学習手法と集団最適化アルゴリズムを併用した新しい手法を提案する。
実験の結果,提案手法は最先端の勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-26T17:31:15Z) - Regularized Gauss-Newton for Optimizing Overparameterized Neural Networks [2.0072624123275533]
一般化されたガウスニュートン(GGN)最適化法は、曲率推定を解法に組み込む。
本研究では、2層ニューラルネットワークを明示的な正規化で最適化するGGN法について検討する。
論文 参考訳(メタデータ) (2024-04-23T10:02:22Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Bidirectional Looking with A Novel Double Exponential Moving Average to
Adaptive and Non-adaptive Momentum Optimizers [109.52244418498974]
我々は,新しいtextscAdmeta(textbfADouble指数textbfMov averagtextbfE textbfAdaptiveおよび非適応運動量)フレームワークを提案する。
我々は、textscAdmetaR と textscAdmetaS の2つの実装を提供し、前者は RAdam を、後者は SGDM をベースとしています。
論文 参考訳(メタデータ) (2023-07-02T18:16:06Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - DC and SA: Robust and Efficient Hyperparameter Optimization of
Multi-subnetwork Deep Learning Models [0.974672460306765]
マルチワークで構築されたモジュールアーキテクチャを用いたディープラーニングモデルの最適化のための2つの新しい戦略を提案する。
提案手法は最適化効率を最大23.62倍に向上し,最終性能は分類精度3.5%,回帰率4.4MSEに向上した。
論文 参考訳(メタデータ) (2022-02-24T00:29:05Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Meta Learning Black-Box Population-Based Optimizers [0.0]
人口ベースのブラックボックス一般化を推論するメタラーニングの利用を提案する。
メタロス関数は,学習アルゴリズムが検索動作を変更することを促進し,新たなコンテキストに容易に適合できることを示す。
論文 参考訳(メタデータ) (2021-03-05T08:13:25Z) - Meta-Learning with Neural Tangent Kernels [58.06951624702086]
メタモデルのニューラルタンジェントカーネル(NTK)によって誘導される再生カーネルヒルベルト空間(RKHS)における最初のメタラーニングパラダイムを提案する。
このパラダイムでは,MAMLフレームワークのように,最適な反復内ループ適応を必要としない2つのメタ学習アルゴリズムを導入する。
本研究の目的は,1) 適応をRKHSの高速適応正則化器に置き換えること,2) NTK理論に基づいて解析的に適応を解くことである。
論文 参考訳(メタデータ) (2021-02-07T20:53:23Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。