論文の概要: Combining Neuro-Evolution of Augmenting Topologies with Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2211.16978v1
- Date: Thu, 20 Oct 2022 18:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 19:18:55.417488
- Title: Combining Neuro-Evolution of Augmenting Topologies with Convolutional
Neural Networks
- Title(参考訳): 拡張トポロジと畳み込みニューラルネットワークの併用による神経進化
- Authors: Jan Hohenheim, Mathias Fischler, Sara Zarubica, Jeremy Stucki
- Abstract要約: 我々は、NEAT(NeuroEvolution of Augmenting Topologies)とCNN(Convolutional Neural Networks)を組み合わせて、Residual Networks(ResNets)ブロックを用いたシステムを提案する。
遺伝的アルゴリズムは、バックプロパゲーション毎のトレーニングよりもはるかに要求が高いため、我々の提案するシステムは、追加の最適化が実施されれば、どのように構築できるのかを説明します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current deep convolutional networks are fixed in their topology. We explore
the possibilites of making the convolutional topology a parameter itself by
combining NeuroEvolution of Augmenting Topologies (NEAT) with Convolutional
Neural Networks (CNNs) and propose such a system using blocks of Residual
Networks (ResNets). We then explain how our suggested system can only be built
once additional optimizations have been made, as genetic algorithms are way
more demanding than training per backpropagation. On the way there we explain
most of those buzzwords and offer a gentle and brief introduction to the most
important modern areas of machine learning
- Abstract(参考訳): 現在の深い畳み込みネットワークはトポロジーで固定されている。
本稿では,拡張位相(neat)と畳み込みニューラルネットワーク(cnns)の神経進化を組み合わせることで畳み込みトポロジーをパラメータ自身とする手法を考察し,残差ネットワーク(resnets)ブロックを用いたシステムを提案する。
遺伝的アルゴリズムはバックプロパゲーションごとのトレーニングよりもはるかに要求が高いので、我々の提案するシステムは、追加の最適化が実施されれば、どのように構築できるのかを説明します。
そこでは、バズワードのほとんどを説明し、機械学習の最も重要な現代的領域について、穏やかで簡潔に紹介する。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - When Deep Learning Meets Polyhedral Theory: A Survey [6.899761345257773]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - An Artificial Neural Network Functionalized by Evolution [2.0625936401496237]
フィードフォワードニューラルネットワークのテンソル計算と擬似ダーウィン機構を組み合わせたハイブリッドモデルを提案する。
これにより、戦略の解明、制御問題、パターン認識タスクに適したトポロジを見つけることができる。
特に、このモデルは初期の進化段階に適応したトポロジを提供し、ロボット工学、ビッグデータ、人工生命に応用できる「構造収束」を提供することができる。
論文 参考訳(メタデータ) (2022-05-16T14:49:58Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Topological Insights into Sparse Neural Networks [16.515620374178535]
本稿では,グラフ理論の観点から,スパースニューラルネットワークトポロジの理解と比較を行うアプローチを提案する。
まず、異なるスパースニューラルネットワーク間の距離を測定するために、NNSTD(Neural Network Sparse Topology Distance)を提案する。
適応的なスパース接続は、高密度モデルよりも優れた非常に異なるトポロジを持つスパースサブネットワークを常に顕在化することができることを示す。
論文 参考訳(メタデータ) (2020-06-24T22:27:21Z) - Verifying Recurrent Neural Networks using Invariant Inference [0.0]
本稿では,リカレントニューラルネットワーク(Recurrent Neural Network)と呼ばれる,ニューラルネットワークの多種多様な特性を検証するための新しいアプローチを提案する。
この手法は不変量の推論に基づいており、再帰的ネットワークを単純かつ非再帰的な問題に検証する際の複雑な問題を軽減できる。
論文 参考訳(メタデータ) (2020-04-06T08:08:24Z) - NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks [2.398608007786179]
ディープニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
層内トポロジーの選択に関する理論的基礎を提供する。
類似したトポロジが達成可能な精度に大きな差があることがよく示される。
論文 参考訳(メタデータ) (2020-02-19T18:29:18Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。