論文の概要: PyHopper -- Hyperparameter optimization
- arxiv url: http://arxiv.org/abs/2210.04728v1
- Date: Mon, 10 Oct 2022 14:35:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 18:49:49.268496
- Title: PyHopper -- Hyperparameter optimization
- Title(参考訳): PyHopper -- ハイパーパラメータ最適化
- Authors: Mathias Lechner, Ramin Hasani, Philipp Neubauer, Sophie Neubauer,
Daniela Rus
- Abstract要約: 我々は機械学習研究者のためのブラックボックス最適化プラットフォームであるPyHopperを紹介する。
PyHopperの目標は、最小限の労力で既存のコードと統合し、最小限のマニュアル監視で最適化プロセスを実行することである。
単純さを主テーマとして、PyHopperは単一のロバストなマルコフチェーンモンテカルロ最適化アルゴリズムを利用している。
- 参考スコア(独自算出の注目度): 51.40201315676902
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Hyperparameter tuning is a fundamental aspect of machine learning research.
Setting up the infrastructure for systematic optimization of hyperparameters
can take a significant amount of time. Here, we present PyHopper, a black-box
optimization platform designed to streamline the hyperparameter tuning workflow
of machine learning researchers. PyHopper's goal is to integrate with existing
code with minimal effort and run the optimization process with minimal
necessary manual oversight. With simplicity as the primary theme, PyHopper is
powered by a single robust Markov-chain Monte-Carlo optimization algorithm that
scales to millions of dimensions. Compared to existing tuning packages,
focusing on a single algorithm frees the user from having to decide between
several algorithms and makes PyHopper easily customizable. PyHopper is publicly
available under the Apache-2.0 license at https://github.com/PyHopper/PyHopper.
- Abstract(参考訳): ハイパーパラメータチューニングは機械学習研究の基本的な側面である。
ハイパーパラメータの体系的な最適化のためのインフラストラクチャのセットアップにはかなりの時間がかかる。
本稿では,機械学習研究者のハイパーパラメータチューニングワークフローを合理化するブラックボックス最適化プラットフォームpyhopperを提案する。
PyHopperの目標は、最小限の労力で既存のコードと統合し、最小限のマニュアル監視で最適化プロセスを実行することである。
単純さを主テーマとして、PyHopperは、数百万の次元にスケールする単一のロバストなマルコフチェーンモンテカルロ最適化アルゴリズムを利用している。
既存のチューニングパッケージと比較して、単一のアルゴリズムにフォーカスすることで、ユーザは複数のアルゴリズムを選択できなくなり、PyHopperを簡単にカスタマイズできる。
PyHopperはApache-2.0ライセンスでhttps://github.com/PyHopper/PyHopperで公開されている。
関連論文リスト
- PockEngine: Sparse and Efficient Fine-tuning in a Pocket [62.955793932377524]
さまざまなエッジデバイスで微調整が可能な,小型でスパースで効率的なエンジンであるPockEngineを紹介します。
PockEngineはスパースバックプロパゲーションをサポートし、測定メモリの節約とレイテンシの削減でモデルをスパース更新する。
注目すべきなのは、PockEngineはNVIDIA Jetson AGX OrinのLLaMav2-7Bを550トークン/秒で微調整できることだ。
論文 参考訳(メタデータ) (2023-10-26T19:46:11Z) - PyBADS: Fast and robust black-box optimization in Python [11.4219428942199]
PyBADSは、高速で堅牢なブラックボックス最適化のためのAdaptive Direct Search (BADS)アルゴリズムの実装である。
結果を実行するアルゴリズムを実行するための、使い易いPythonインターフェースとともに提供される。
論文 参考訳(メタデータ) (2023-06-27T15:54:44Z) - PyTorch Hyperparameter Tuning - A Tutorial for spotPython [0.20305676256390928]
このチュートリアルには、実験を実行し、ハイパーパラメータをチューニングするためのPythonライブラリであるRay Tuneとの簡単な比較が含まれている。
spotPythonはRay Tuneよりも柔軟で透明でありながら、同じような、あるいはさらに優れた結果が得られることを示しています。
論文 参考訳(メタデータ) (2023-05-19T17:47:50Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - PyEPO: A PyTorch-based End-to-End Predict-then-Optimize Library for
Linear and Integer Programming [9.764407462807588]
我々はPythonのPyTorchベースのエンドツーエンド予測最適化ライブラリであるPyEPOパッケージを提示する。
PyEPOは、予測対象関数係数を持つ線形および整数プログラミングのための最初の汎用ツールである。
論文 参考訳(メタデータ) (2022-06-28T18:33:55Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Tasks, stability, architecture, and compute: Training more effective
learned optimizers, and using them to train themselves [53.37905268850274]
我々は、自動正規化を実現するために、バリデーション損失などの追加機能にアクセス可能な、階層的で階層的なニューラルネットワークパラメータ化を導入した。
ほとんどの学習は単一のタスク、あるいは少数のタスクでトレーニングされています。
何千ものタスクをトレーニングし、桁違いに計算量を増やし、その結果、目に見えないタスクよりも優れたパフォーマンスの一般化を実現します。
論文 参考訳(メタデータ) (2020-09-23T16:35:09Z) - Sherpa: Robust Hyperparameter Optimization for Machine Learning [6.156647008180291]
Sherpaは、機械学習モデルのためのハイパーパラメータ最適化ライブラリである。
計算コストのかかる反復関数評価の問題に特化して設計されている。
Sherpaは単一のマシン上で、あるいはクラスタ上で並列に実行することができる。
論文 参考訳(メタデータ) (2020-05-08T13:52:49Z) - PHS: A Toolbox for Parallel Hyperparameter Search [2.0305676256390934]
PHS - Parallel Hyperparameter Search というオープンソースのpythonフレームワークを紹介した。
これは任意のピソン関数の多数の計算インスタンスに対してハイパーパラメータ最適化を可能にする。
論文 参考訳(メタデータ) (2020-02-26T12:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。