論文の概要: The ensmallen library for flexible numerical optimization
- arxiv url: http://arxiv.org/abs/2108.12981v2
- Date: Fri, 9 Feb 2024 13:07:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 21:29:37.382448
- Title: The ensmallen library for flexible numerical optimization
- Title(参考訳): フレキシブル数値最適化のためのensmallenライブラリ
- Authors: Ryan R. Curtin, Marcus Edel, Rahul Ganesh Prabhu, Suryoday Basak,
Zhihao Lou, Conrad Sanderson
- Abstract要約: 我々は,ユーザ供給対象関数を数学的に最適化するための柔軟なC++フレームワークを提供する,コンパクトな数値最適化ライブラリの概要を述べる。
汎用関数、微分可能関数、分離可能関数、制約関数、分類関数など、多くの目的関数がサポートされている。
- 参考スコア(独自算出の注目度): 15.78308411537254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We overview the ensmallen numerical optimization library, which provides a
flexible C++ framework for mathematical optimization of user-supplied objective
functions. Many types of objective functions are supported, including general,
differentiable, separable, constrained, and categorical. A diverse set of
pre-built optimizers is provided, including Quasi-Newton optimizers and many
variants of Stochastic Gradient Descent. The underlying framework facilitates
the implementation of new optimizers. Optimization of an objective function
typically requires supplying only one or two C++ functions. Custom behavior can
be easily specified via callback functions. Empirical comparisons show that
ensmallen outperforms other frameworks while providing more functionality. The
library is available at https://ensmallen.org and is distributed under the
permissive BSD license.
- Abstract(参考訳): このライブラリは、ユーザ供給対象関数の数学的最適化のための柔軟なC++フレームワークを提供する。
汎用関数、微分可能関数、分離可能関数、制約関数、分類関数など、多くの型がサポートされている。
準ニュートンオプティマイザやStochastic Gradient Descentの多くの変種を含む、様々なプレビルドオプティマイザが提供されている。
基盤となるフレームワークは、新しいオプティマイザの実装を促進する。
目的関数の最適化は通常、1つまたは2つのc++関数の供給のみを必要とする。
カスタムの振る舞いはコールバック関数経由で簡単に指定できる。
実証的な比較では、エンサイズが他のフレームワークより優れており、より多くの機能を提供している。
このライブラリはhttps://ensmallen.orgで利用可能であり、パーミッシブBSDライセンスの下で配布されている。
関連論文リスト
- CompilerDream: Learning a Compiler World Model for General Code Optimization [58.87557583347996]
汎用コード最適化のためのモデルベース強化学習手法であるCompilerDreamを紹介する。
最適化パスの固有の特性を正確にシミュレートするコンパイラの世界モデルと、このモデルで訓練されたエージェントから、効率的な最適化戦略を生成する。
さまざまなデータセットを網羅し、LLVMのビルトイン最適化や、値予測とエンドツーエンドコード最適化の両方の設定における最先端メソッドを超越している。
論文 参考訳(メタデータ) (2024-04-24T09:20:33Z) - A General Framework for User-Guided Bayesian Optimization [51.96352579696041]
コラボ (ColaBO) は、典型的なカーネル構造を超越した事前信念のための最初のベイズ原理の枠組みである。
我々は,ColaBOの事前情報が正確である場合に最適化を著しく高速化し,ミスリード時のほぼ既定性能を維持する能力を実証的に実証した。
論文 参考訳(メタデータ) (2023-11-24T18:27:26Z) - NUBO: A Transparent Python Package for Bayesian Optimization [0.0]
NUBOは物理実験やコンピュータシミュレータなどのブラックボックス機能を最適化するためのフレームワークである。
透明性とユーザエクスペリエンスを重視し、ベイズ最適化をあらゆる分野の研究者が利用できるようにする。
NUBOはPythonで書かれているが、シミュレータや実験を最適化するためにPythonの専門知識は必要ない。
論文 参考訳(メタデータ) (2023-05-11T10:34:27Z) - Theseus: A Library for Differentiable Nonlinear Optimization [21.993680737841476]
Theseusは、PyTorch上に構築された微分可能な非線形最小二乗(DNLS)最適化のための効率的なアプリケーション依存ライブラリである。
Theseusは、ロボット工学とビジョンにおけるエンドツーエンドの構造化学習のための共通のフレームワークを提供する。
論文 参考訳(メタデータ) (2022-07-19T17:57:40Z) - On the development of a Bayesian optimisation framework for complex
unknown systems [11.066706766632578]
本稿では, ベイズ最適化アルゴリズムを様々な合成試験関数に対して実験的に検討し, 比較する。
取得関数の選択とトレーニングサンプル数,取得関数の正確な計算,モンテカルロに基づくアプローチについて検討する。
論文 参考訳(メタデータ) (2022-07-19T09:50:34Z) - A General Recipe for Likelihood-free Bayesian Optimization [115.82591413062546]
我々は,BOをより広範なモデルやユーティリティに拡張する可能性のないBO(LFBO)を提案する。
LFBOは、確率的代理モデルと個別に推論を行うことなく、取得関数を直接モデル化する。
LFBOにおける取得関数の計算は、重み付けされた分類問題を最適化することで削減できることを示す。
論文 参考訳(メタデータ) (2022-06-27T03:55:27Z) - Differentiable Spline Approximations [48.10988598845873]
微分プログラミングは機械学習のスコープを大幅に強化した。
標準的な微分可能なプログラミング手法(autodiffなど)は、通常、機械学習モデルが微分可能であることを要求する。
この再設計されたヤコビアンを予測モデルにおける微分可能な「層」の形で活用することで、多様なアプリケーションの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-04T16:04:46Z) - Are we Forgetting about Compositional Optimisers in Bayesian
Optimisation? [66.39551991177542]
本稿では,グローバル最適化のためのサンプル手法を提案する。
この中、重要なパフォーマンス決定の自明さは、取得機能を最大化することです。
3958実験における機能最適化手法の実証的利点を強調する。
論文 参考訳(メタデータ) (2020-12-15T12:18:38Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Flexible numerical optimization with ensmallen [15.78308411537254]
本報告では,数値最適化ライブラリの小型化について紹介する。
このライブラリは、任意のユーザ供給関数を数学的に最適化するための、高速で柔軟なC++フレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-09T12:57:42Z) - Practical Bayesian Optimization of Objectives with Conditioning
Variables [1.0497128347190048]
ユーザが複数の問題に直面している場合、状態変数に対してそれぞれを条件付きで最適化する必要がある場合を考える。
目的間の類似性は、それぞれの目的を2つの方法で最適化する。
本稿では条件最適化のためのフレームワークであるConBOを提案する。
論文 参考訳(メタデータ) (2020-02-23T22:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。