論文の概要: Flexible numerical optimization with ensmallen
- arxiv url: http://arxiv.org/abs/2003.04103v3
- Date: Mon, 23 Mar 2020 12:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:36:23.859733
- Title: Flexible numerical optimization with ensmallen
- Title(参考訳): エンスモールデンによるフレキシブル数値最適化
- Authors: Ryan R. Curtin, Marcus Edel, Rahul Ganesh Prabhu, Suryoday Basak,
Zhihao Lou, Conrad Sanderson
- Abstract要約: 本報告では,数値最適化ライブラリの小型化について紹介する。
このライブラリは、任意のユーザ供給関数を数学的に最適化するための、高速で柔軟なC++フレームワークを提供する。
- 参考スコア(独自算出の注目度): 10.9947282579739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report provides an introduction to the ensmallen numerical optimization
library, as well as a deep dive into the technical details of how it works. The
library provides a fast and flexible C++ framework for mathematical
optimization of arbitrary user-supplied functions. A large set of pre-built
optimizers is provided, including many variants of Stochastic Gradient Descent
and Quasi-Newton optimizers. Several types of objective functions are
supported, including differentiable, separable, constrained, and categorical
objective functions. Implementation of a new optimizer requires only one
method, while a new objective function requires typically only one or two C++
methods. Through internal use of C++ template metaprogramming, ensmallen
provides support for arbitrary user-supplied callbacks and automatic inference
of unsupplied methods without any runtime overhead. Empirical comparisons show
that ensmallen outperforms other optimization frameworks (such as Julia and
SciPy), sometimes by large margins. The library is available at
https://ensmallen.org and is distributed under the permissive BSD license.
- Abstract(参考訳): 本報告では,数値最適化ライブラリの小型化について紹介するとともに,その動作に関する技術的な詳細を詳しく解説する。
このライブラリは、任意のユーザー供給関数の数学的最適化のための高速で柔軟なc++フレームワークを提供する。
多数のプレビルドオプティマイザが提供されており、Stochastic Gradient DescentとQuasi-Newtonオプティマイザの多くのバリエーションが含まれている。
微分可能、分離可能、制約付き、カテゴリー的目的関数など、いくつかの目的関数がサポートされている。
新しいオプティマイザの実装は1つのメソッドしか必要とせず、新しいobjective関数は1つまたは2つのc++メソッドしか必要としない。
C++テンプレートのメタプログラミングを内部で使用することにより、Ensmallenは任意のユーザから供給されるコールバックと、実行時のオーバーヘッドのないアンサプライドメソッドの自動推論をサポートする。
経験的な比較は、en Smallenが他の最適化フレームワーク(JuliaやSciPyなど)を上回っていることを示している。
このライブラリはhttps://ensmallen.orgで利用可能であり、パーミッシブBSDライセンスの下で配布されている。
関連論文リスト
- LibMOON: A Gradient-based MultiObjective OptimizatioN Library in PyTorch [19.499639344055275]
機械学習では、多目的最適化問題(MOP)が一般的である。
本稿では,最先端勾配法をサポートする初の多目的最適化ライブラリであるLibMOONを紹介する。
論文 参考訳(メタデータ) (2024-09-04T07:44:43Z) - How to Boost Any Loss Function [63.573324901948716]
損失関数はブースティングにより最適化可能であることを示す。
また、古典的な$0の注文設定でまだ不可能な成果を達成できることも示しています。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - CompilerDream: Learning a Compiler World Model for General Code Optimization [58.87557583347996]
汎用コード最適化のためのモデルベース強化学習手法であるCompilerDreamを紹介する。
最適化パスの固有の特性を正確にシミュレートするコンパイラの世界モデルと、このモデルで訓練されたエージェントから、効率的な最適化戦略を生成する。
さまざまなデータセットを網羅し、LLVMのビルトイン最適化や、値予測とエンドツーエンドコード最適化の両方の設定における最先端メソッドを超越している。
論文 参考訳(メタデータ) (2024-04-24T09:20:33Z) - NUBO: A Transparent Python Package for Bayesian Optimization [0.0]
NUBOは物理実験やコンピュータシミュレータなどのブラックボックス機能を最適化するためのフレームワークである。
透明性とユーザエクスペリエンスを重視し、ベイズ最適化をあらゆる分野の研究者が利用できるようにする。
NUBOはPythonで書かれているが、シミュレータや実験を最適化するためにPythonの専門知識は必要ない。
論文 参考訳(メタデータ) (2023-05-11T10:34:27Z) - pysamoo: Surrogate-Assisted Multi-Objective Optimization in Python [7.8140593450932965]
pysamooは計算コストの高い最適化問題を解決するためのフレームワークである。
pysamooは、時間を要する評価機能に関わる問題に対処する複数の最適化方法を提供する。
pysamooの詳細については、Anyoptimization.com/projects/pysamooを参照してほしい。
論文 参考訳(メタデータ) (2022-04-12T14:55:57Z) - Submodlib: A Submodular Optimization Library [17.596860081700115]
Submodlibは、サブモジュール最適化のためのオープンソースの、使いやすく、効率的でスケーラブルなPythonライブラリである。
Submodlibはその応用例として、要約、データサブセットの選択、ハイパーパラメータチューニング、効率的なトレーニングなどがある。
論文 参考訳(メタデータ) (2022-02-22T05:48:12Z) - The ensmallen library for flexible numerical optimization [15.78308411537254]
我々は,ユーザ供給対象関数を数学的に最適化するための柔軟なC++フレームワークを提供する,コンパクトな数値最適化ライブラリの概要を述べる。
汎用関数、微分可能関数、分離可能関数、制約関数、分類関数など、多くの目的関数がサポートされている。
論文 参考訳(メタデータ) (2021-08-30T03:49:21Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Why Do Local Methods Solve Nonconvex Problems? [54.284687261929115]
非使用最適化は、現代の機械学習においてユビキタスである。
機械学習問題の場合、厳格に定式化します。
我々はこの現象の統一的な説明を仮定する。
論文 参考訳(メタデータ) (2021-03-24T19:34:11Z) - Finding Global Minima via Kernel Approximations [90.42048080064849]
関数評価のみに基づく滑らかな関数のグローバル最小化を考える。
本稿では,近似関数を共同でモデル化し,大域的最小値を求める手法を検討する。
論文 参考訳(メタデータ) (2020-12-22T12:59:30Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。