論文の概要: Neuroevolution of Neural Network Architectures Using CoDeepNEAT and
Keras
- arxiv url: http://arxiv.org/abs/2002.04634v1
- Date: Tue, 11 Feb 2020 19:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:01:37.343881
- Title: Neuroevolution of Neural Network Architectures Using CoDeepNEAT and
Keras
- Title(参考訳): CoDeepNEATとKerasを用いたニューラルネットワークアーキテクチャの神経進化
- Authors: Jonas da Silveira Bohrer, Bruno Iochins Grisci and Marcio Dorn
- Abstract要約: 機械学習プロジェクトに関わる作業の大部分は、与えられた問題を解決するのに最適なタイプのアルゴリズムを定義することである。
与えられた問題に対する最適なネットワークトポロジと設定を見つけることは、ドメインの知識とテストの努力を必要とする課題です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is a huge field of study in computer science and statistics
dedicated to the execution of computational tasks through algorithms that do
not require explicit instructions but instead rely on learning patterns from
data samples to automate inferences. A large portion of the work involved in a
machine learning project is to define the best type of algorithm to solve a
given problem. Neural networks - especially deep neural networks - are the
predominant type of solution in the field. However, the networks themselves can
produce very different results according to the architectural choices made for
them. Finding the optimal network topology and configurations for a given
problem is a challenge that requires domain knowledge and testing efforts due
to a large number of parameters that need to be considered. The purpose of this
work is to propose an adapted implementation of a well-established evolutionary
technique from the neuroevolution field that manages to automate the tasks of
topology and hyperparameter selection. It uses a popular and accessible machine
learning framework - Keras - as the back-end, presenting results and proposed
changes concerning the original algorithm. The implementation is available at
GitHub (https://github.com/sbcblab/Keras-CoDeepNEAT) with documentation and
examples to reproduce the experiments performed for this work.
- Abstract(参考訳): 機械学習はコンピュータサイエンスや統計学において、明示的な指示を必要とせず、代わりにデータサンプルから学習パターンを頼りに推論を自動化するアルゴリズムを通して計算タスクを実行するための大きな研究分野である。
機械学習プロジェクトに関わる作業の大部分は、与えられた問題を解決するのに最適なタイプのアルゴリズムを定義することである。
ニューラルネットワーク(特にディープニューラルネットワーク)は、この分野における主要なソリューションである。
しかし、ネットワーク自体は、アーキテクチャ上の選択によって、まったく異なる結果を生み出すことができます。
与えられた問題の最適なネットワークトポロジーと構成を見つけることは、考慮すべき多くのパラメータのためにドメインの知識とテストの労力を必要とする課題である。
本研究の目的は、トポロジーとハイパーパラメータ選択のタスクを自動化する神経進化分野から確立された進化技法を適応的に実装することである。
一般的な機械学習フレームワークであるKerasをバックエンドとして使用し、結果と元のアルゴリズムに関する提案された変更を提示する。
この実装はgithub(https://github.com/sbcblab/keras-codeepneat)で利用可能である。
関連論文リスト
- The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - Pathfinding Neural Cellular Automata [23.831530224401575]
Pathfindingは、ロボットパス計画、トランスポートルーティング、ゲームプレイなど、幅広い複雑なAIタスクの重要なサブコンポーネントである。
我々は, Breadth-First Search (BFS) のモデル,すなわち最短経路探索のハンドコードと学習を行う。
本稿では、Depth-First Search(DFS)のニューラル実装を提案し、グラフの直径を計算するためのNAAを生成するために、ニューラルネットワークBFSと組み合わせる方法について概説する。
我々は,これらの手書きNCAに触発されたアーキテクチャ変更を実験し,グリッド迷路の直径問題を解くためにゼロからネットワークをトレーニングし,高い能力の一般化を示した。
論文 参考訳(メタデータ) (2023-01-17T11:45:51Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - Improving the sample-efficiency of neural architecture search with
reinforcement learning [0.0]
この作業では、Automated Machine Learning(AutoML)の領域にコントリビュートしたいと思っています。
我々の焦点は、最も有望な研究方向の一つ、強化学習である。
児童ネットワークの検証精度は、コントローラを訓練するための報奨信号として機能する。
我々は、これをより現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:30:09Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - On the performance of deep learning for numerical optimization: an
application to protein structure prediction [0.0]
本稿では,グローバルな最適化問題に対処するディープラーニングモデルの性能について述べる。
提案手法は、効率的なニューラルネットワークを生成するために、NAS(Neural Architecture Search)の概念を採用する。
実験により、手書きのアルゴリズムと比較して、生成された学習モデルが競合する結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-12-17T17:01:30Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。