論文の概要: Modular Grammatical Evolution for the Generation of Artificial Neural
Networks
- arxiv url: http://arxiv.org/abs/2208.02787v1
- Date: Thu, 4 Aug 2022 17:38:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:03:41.888344
- Title: Modular Grammatical Evolution for the Generation of Artificial Neural
Networks
- Title(参考訳): 人工ニューラルネットワーク生成のためのモジュラー文法進化
- Authors: Khabat Soltanian, Ali Ebnenasir, and Mohsen Afsharchi
- Abstract要約: 本稿では,ニューロエボリューションの解空間をモジュール型かつ単純なニューラルネットワークに制限することで,より小さく,より構造化されたニューラルネットワークを効率的に生成できるという仮説を検証するための,モジュール文法進化(MGE)と呼ばれる新しい手法を提案する。
MGEの表現は、各個体が一組の遺伝子を持ち、各遺伝子は文法規則によってニューロンにマッピングされる。
提案手法は,異なるサイズ,特徴数,出力クラス数を持つ10種類のよく知られた分類ベンチマークを用いて検証した。
- 参考スコア(独自算出の注目度): 0.8029049649310211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel method, called Modular Grammatical Evolution
(MGE), towards validating the hypothesis that restricting the solution space of
NeuroEvolution to modular and simple neural networks enables the efficient
generation of smaller and more structured neural networks while providing
acceptable (and in some cases superior) accuracy on large data sets. MGE also
enhances the state-of-the-art Grammatical Evolution (GE) methods in two
directions. First, MGE's representation is modular in that each individual has
a set of genes, and each gene is mapped to a neuron by grammatical rules.
Second, the proposed representation mitigates two important drawbacks of GE,
namely the low scalability and weak locality of representation, towards
generating modular and multi-layer networks with a high number of neurons. We
define and evaluate five different forms of structures with and without
modularity using MGE and find single-layer modules with no coupling more
productive. Our experiments demonstrate that modularity helps in finding better
neural networks faster. We have validated the proposed method using ten
well-known classification benchmarks with different sizes, feature counts, and
output class count. Our experimental results indicate that MGE provides
superior accuracy with respect to existing NeuroEvolution methods and returns
classifiers that are significantly simpler than other machine learning
generated classifiers. Finally, we empirically demonstrate that MGE outperforms
other GE methods in terms of locality and scalability properties.
- Abstract(参考訳): 本稿では,ニューロエボリューションの解空間をモジュラーかつ単純なニューラルネットワークに制限することで,より小さく,より構造化されたニューラルネットワークを効率的に生成できるという仮説を検証するため,MGE(Modular Grammatical Evolution)と呼ばれる新しい手法を提案する。
MGEはまた、最先端の文法進化法(GE)を2方向に拡張している。
まず、MGEの表現は、各個体が一組の遺伝子を持ち、各遺伝子は文法的な規則によってニューロンにマッピングされる。
第二に、提案した表現はGEの2つの重要な欠点、すなわち低スケーラビリティと低局所性を緩和し、多数のニューロンを持つモジュラーおよび多層ネットワークを生成する。
MGEを用いて,モジュール性のない5種類の構造を定義・評価し,結合性のない単一層モジュールをより生産的に発見する。
私たちの実験では、モジュール性がニューラルネットワークをより早く発見するのに役立ちます。
提案手法は,サイズ,特徴数,出力クラス数が異なる10の既知の分類ベンチマークを用いて検証した。
実験の結果,mgeは既存の神経進化法に対して優れた精度を示し,他の機械学習生成分類器よりもはるかに単純な分類器を返すことができた。
最後に,MGEが他のGE法よりも局所性と拡張性に優れることを示す。
関連論文リスト
- Spatiotemporal Learning on Cell-embedded Graphs [6.8090864965073274]
学習可能なセル属性をノードエッジメッセージパッシングプロセスに導入し,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットの実験は、CeGNNが他のベースラインモデルと比較して優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - A Multi-In and Multi-Out Dendritic Neuron Model and its Optimization [20.308485340250662]
マルチ出力タスクに対処する新しいマルチイン・マルチアウト樹状ニューロンモデル(MODN)を提案する。
我々の中核となる考え方は、それぞれの出力を回帰するために所望のデンドライトを適応的に選択するために、ソマ層にフィルタリング行列を導入することである。
このような行列は学習可能なように設計されているため、MODNはそれぞれのデンドライトと出力の関係を探索することができる。
論文 参考訳(メタデータ) (2023-09-14T15:28:41Z) - A differentiable Gaussian Prototype Layer for explainable Segmentation [3.258592531141818]
勾配に基づくプロトタイプ学習のための勾配ベースのプロトタイプ層を導入する。
説明可能なニューラルネットワークのための新しいビルディングブロックとして使用できることを示す。
論文 参考訳(メタデータ) (2023-06-25T22:33:21Z) - ViGU: Vision GNN U-Net for Fast MRI [1.523157765626545]
Vision GNN U-Net (ViGU) と呼ばれる高速MRIのための新しいビジョンGNN型ネットワークを提案する。
対称エンコーダとデコーダパスのグラフブロックを用いてU字型ネットワークを開発する。
数値的および視覚的な実験を通して、提案したViGUとGANの変種が既存のCNNおよびGANベースの手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-01-23T12:51:57Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z) - Deep Convolutional Neural Networks: A survey of the foundations,
selected improvements, and some current applications [0.0]
本稿では,CNN(Convolutional Neural Networks)という,そのような手法を提示し,検討する。
CNNは、畳み込みと呼ばれる特別な線形演算を使用するディープニューラルネットワークである。
本稿では、実際に非常に効果的であることが証明された畳み込みの2つの応用について論じる。
論文 参考訳(メタデータ) (2020-11-25T19:03:23Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。