論文の概要: A Continuous Optimisation Benchmark Suite from Neural Network Regression
- arxiv url: http://arxiv.org/abs/2109.05606v2
- Date: Sat, 3 Sep 2022 19:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 07:17:25.466741
- Title: A Continuous Optimisation Benchmark Suite from Neural Network Regression
- Title(参考訳): ニューラルネットワーク回帰による連続最適化ベンチマークスイート
- Authors: Katherine M. Malan and Christopher W. Cleghorn
- Abstract要約: ニューラルネットワークのトレーニングは、近年のディープラーニングの成功で注目を集めている最適化タスクである。
勾配降下変種は、大規模機械学習タスクにおける信頼性の高いパフォーマンスにおいて、最も一般的な選択である。
CORNNは、ニューラルネットワークのトレーニング問題に対して、連続的なブラックボックスアルゴリズムのパフォーマンスをベンチマークするスイートである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing optimisation algorithms that perform well in general requires
experimentation on a range of diverse problems. Training neural networks is an
optimisation task that has gained prominence with the recent successes of deep
learning. Although evolutionary algorithms have been used for training neural
networks, gradient descent variants are by far the most common choice with
their trusted good performance on large-scale machine learning tasks. With this
paper we contribute CORNN (Continuous Optimisation of Regression tasks using
Neural Networks), a large suite for benchmarking the performance of any
continuous black-box algorithm on neural network training problems. Using a
range of regression problems and neural network architectures, problem
instances with different dimensions and levels of difficulty can be created. We
demonstrate the use of the CORNN Suite by comparing the performance of three
evolutionary and swarm-based algorithms on over 300 problem instances, showing
evidence of performance complementarity between the algorithms. As a baseline,
the performance of the best population-based algorithm is benchmarked against a
gradient-based approach. The CORNN suite is shared as a public web repository
to facilitate easy integration with existing benchmarking platforms.
- Abstract(参考訳): 一般によく動作する最適化アルゴリズムの設計には、様々な問題の実験が必要である。
ニューラルネットワークのトレーニングは、最近のディープラーニングの成功で注目を集めた最適化タスクである。
進化的アルゴリズムはニューラルネットワークのトレーニングに使用されているが、大規模機械学習タスクにおける信頼性の高いパフォーマンスにおいて、勾配降下変種は最も一般的な選択である。
本稿では、ニューラルネットワークトレーニング問題に対する連続ブラックボックスアルゴリズムの性能をベンチマークする大規模なスイートであるCORNN(Continuous Optimisation of Regression task using Neural Networks)を提案する。
さまざまな回帰問題とニューラルネットワークアーキテクチャを使用して、異なる次元と難易度を持つ問題インスタンスを作成することができる。
我々は,300以上の問題インスタンス上での3つの進化的アルゴリズムとSwarmに基づくアルゴリズムの性能を比較することで,CORNN Suiteの使用を実証した。
ベースラインとして、最適な人口ベースアルゴリズムの性能を勾配ベースアプローチと比較する。
CORNNスイートは、既存のベンチマークプラットフォームとの統合を容易にするために、パブリックWebリポジトリとして共有されている。
関連論文リスト
- Training Artificial Neural Networks by Coordinate Search Algorithm [0.20971479389679332]
本稿では、ニューラルネットワークのトレーニングのための勾配自由座標探索(CS)アルゴリズムの効率的なバージョンを提案する。
提案アルゴリズムは、微分不可能なアクティベーション関数で使用することができ、多目的/マルチロス問題に適合する。
ANNの重みに対する最適値を求めることは、大規模な最適化問題である。
論文 参考訳(メタデータ) (2024-02-20T01:47:25Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Training Neural Networks using SAT solvers [1.0152838128195465]
本稿では,SATソルバを用いてニューラルネットワークのトレーニングを行うグローバル最適化手法を提案する。
実験では,パリティ学習などのタスクにおいて,ADAMオプティマイザに対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2022-06-10T01:31:12Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - On the performance of deep learning for numerical optimization: an
application to protein structure prediction [0.0]
本稿では,グローバルな最適化問題に対処するディープラーニングモデルの性能について述べる。
提案手法は、効率的なニューラルネットワークを生成するために、NAS(Neural Architecture Search)の概念を採用する。
実験により、手書きのアルゴリズムと比較して、生成された学習モデルが競合する結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-12-17T17:01:30Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。