論文の概要: Flexible numerical optimization with ensmallen
- arxiv url: http://arxiv.org/abs/2003.04103v3
- Date: Mon, 23 Mar 2020 12:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:36:23.859733
- Title: Flexible numerical optimization with ensmallen
- Title(参考訳): エンスモールデンによるフレキシブル数値最適化
- Authors: Ryan R. Curtin, Marcus Edel, Rahul Ganesh Prabhu, Suryoday Basak,
Zhihao Lou, Conrad Sanderson
- Abstract要約: 本報告では,数値最適化ライブラリの小型化について紹介する。
このライブラリは、任意のユーザ供給関数を数学的に最適化するための、高速で柔軟なC++フレームワークを提供する。
- 参考スコア(独自算出の注目度): 10.9947282579739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report provides an introduction to the ensmallen numerical optimization
library, as well as a deep dive into the technical details of how it works. The
library provides a fast and flexible C++ framework for mathematical
optimization of arbitrary user-supplied functions. A large set of pre-built
optimizers is provided, including many variants of Stochastic Gradient Descent
and Quasi-Newton optimizers. Several types of objective functions are
supported, including differentiable, separable, constrained, and categorical
objective functions. Implementation of a new optimizer requires only one
method, while a new objective function requires typically only one or two C++
methods. Through internal use of C++ template metaprogramming, ensmallen
provides support for arbitrary user-supplied callbacks and automatic inference
of unsupplied methods without any runtime overhead. Empirical comparisons show
that ensmallen outperforms other optimization frameworks (such as Julia and
SciPy), sometimes by large margins. The library is available at
https://ensmallen.org and is distributed under the permissive BSD license.
- Abstract(参考訳): 本報告では,数値最適化ライブラリの小型化について紹介するとともに,その動作に関する技術的な詳細を詳しく解説する。
このライブラリは、任意のユーザー供給関数の数学的最適化のための高速で柔軟なc++フレームワークを提供する。
多数のプレビルドオプティマイザが提供されており、Stochastic Gradient DescentとQuasi-Newtonオプティマイザの多くのバリエーションが含まれている。
微分可能、分離可能、制約付き、カテゴリー的目的関数など、いくつかの目的関数がサポートされている。
新しいオプティマイザの実装は1つのメソッドしか必要とせず、新しいobjective関数は1つまたは2つのc++メソッドしか必要としない。
C++テンプレートのメタプログラミングを内部で使用することにより、Ensmallenは任意のユーザから供給されるコールバックと、実行時のオーバーヘッドのないアンサプライドメソッドの自動推論をサポートする。
経験的な比較は、en Smallenが他の最適化フレームワーク(JuliaやSciPyなど)を上回っていることを示している。
このライブラリはhttps://ensmallen.orgで利用可能であり、パーミッシブBSDライセンスの下で配布されている。
関連論文リスト
- NUBO: A Transparent Python Package for Bayesian Optimisation [0.2578242050187029]
NUBOはブラックボックス関数の最適化のためのフレームワークである。
あらゆる分野の研究者が容易にアクセスできるように設計されている。
連続的な単一点、並列多点、および有界、制約付きおよび/または混合(離散および連続)パラメータ入力空間の非同期最適化をサポートする。
論文 参考訳(メタデータ) (2023-05-11T10:34:27Z) - pysamoo: Surrogate-Assisted Multi-Objective Optimization in Python [7.8140593450932965]
pysamooは計算コストの高い最適化問題を解決するためのフレームワークである。
pysamooは、時間を要する評価機能に関わる問題に対処する複数の最適化方法を提供する。
pysamooの詳細については、Anyoptimization.com/projects/pysamooを参照してほしい。
論文 参考訳(メタデータ) (2022-04-12T14:55:57Z) - Submodlib: A Submodular Optimization Library [17.596860081700115]
Submodlibは、サブモジュール最適化のためのオープンソースの、使いやすく、効率的でスケーラブルなPythonライブラリである。
Submodlibはその応用例として、要約、データサブセットの選択、ハイパーパラメータチューニング、効率的なトレーニングなどがある。
論文 参考訳(メタデータ) (2022-02-22T05:48:12Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - The ensmallen library for flexible numerical optimization [15.78308411537254]
我々は,ユーザ供給対象関数を数学的に最適化するための柔軟なC++フレームワークを提供する,コンパクトな数値最適化ライブラリの概要を述べる。
汎用関数、微分可能関数、分離可能関数、制約関数、分類関数など、多くの目的関数がサポートされている。
論文 参考訳(メタデータ) (2021-08-30T03:49:21Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Why Do Local Methods Solve Nonconvex Problems? [54.284687261929115]
非使用最適化は、現代の機械学習においてユビキタスである。
機械学習問題の場合、厳格に定式化します。
我々はこの現象の統一的な説明を仮定する。
論文 参考訳(メタデータ) (2021-03-24T19:34:11Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - pymoo: Multi-objective Optimization in Python [7.8140593450932965]
我々はPythonの多目的最適化フレームワークpymooを開発した。
我々は、模範的な制約付き多目的最適化シナリオの実装を実証することにより、フレームワークを始めるためのガイドを提供する。
フレームワークの実装はカスタマイズ可能であり、アルゴリズムはカスタム演算子の提供によって変更・拡張できる。
論文 参考訳(メタデータ) (2020-01-22T16:04:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。