論文の概要: NEVO-GSPT: Population-Based Neural Network Evolution Using Inflate and Deflate Operators
- arxiv url: http://arxiv.org/abs/2601.08657v1
- Date: Tue, 13 Jan 2026 15:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.261539
- Title: NEVO-GSPT: Population-Based Neural Network Evolution Using Inflate and Deflate Operators
- Title(参考訳): NEVO-GSPT:Inflate と Deflate 演算子を用いた人口ベースニューラルネットワークの進化
- Authors: Davide Farinati, Frederico J. J. B. Santos, Leonardo Vanneschi, Mauro Castelli,
- Abstract要約: glsngsptは、2つの重要な革新に基づく新しい神経進化アルゴリズムである。
glsngsptは、確立された手法に匹敵するパフォーマンスを達成するコンパクトニューラルネットワークを一貫して進化させる。
- 参考スコア(独自算出の注目度): 3.513869875017041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolving neural network architectures is a computationally demanding process. Traditional methods often require an extensive search through large architectural spaces and offer limited understanding of how structural modifications influence model behavior. This paper introduces \gls{ngspt}, a novel Neuroevolution algorithm based on two key innovations. First, we adapt geometric semantic operators~(GSOs) from genetic programming to neural network evolution, ensuring that architectural changes produce predictable effects on network semantics within a unimodal error surface. Second, we introduce a novel operator (DGSM) that enables controlled reduction of network size, while maintaining the semantic properties of~GSOs. Unlike traditional approaches, \gls{ngspt}'s efficient evaluation mechanism, which only requires computing the semantics of newly added components, allows for efficient population-based training, resulting in a comprehensive exploration of the search space at a fraction of the computational cost. Experimental results on four regression benchmarks show that \gls{ngspt} consistently evolves compact neural networks that achieve performance comparable to or better than established methods in the literature, such as standard neural networks, SLIM-GSGP, TensorNEAT, and SLM.
- Abstract(参考訳): ニューラルネットワークアーキテクチャの進化は、計算に要求されるプロセスである。
伝統的な手法は、しばしば大規模な建築空間を広範囲に探索することを必要とし、構造的な修正がモデル行動にどのように影響するかを限定的に理解する。
本稿では、2つの重要な革新に基づく新しい神経進化アルゴリズムである \gls{ngspt} を紹介する。
まず、遺伝的プログラミングからニューラルネットワーク進化への幾何学的セマンティック演算子~(GSO)を適応させ、アーキテクチャ上の変更が不定形エラーサーフェス内のネットワークセマンティクスに予測可能な効果をもたらすことを保証します。
第2に、ネットワークサイズを制御可能とし、〜GSOのセマンティック特性を維持しつつ、新たな演算子(DGSM)を導入する。
従来のアプローチとは異なり、新たに追加されたコンポーネントのセマンティクスを計算することのみを必要とする \gls{ngspt} の効率的な評価メカニズムは、効率的な集団ベースのトレーニングを可能にし、計算コストのごく一部で探索空間を包括的に探索する。
4つの回帰ベンチマークによる実験結果から、標準的なニューラルネットワーク、SLIM-GSGP、TensorNEAT、SLMなどの文献で確立された手法に匹敵する性能を達成するための、コンパクトニューラルネットワークを一貫して進化させることが示された。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - When Deep Learning Meets Polyhedral Theory: A Survey [5.59187625600025]
過去10年間で、ディープ・ニューラル・ラーニングの顕著な精度のおかげで、ディープは予測モデリングの一般的な方法論となった。
一方、ニューラルネットワークの構造はより単純で線形な関数に収束した。
論文 参考訳(メタデータ) (2023-04-29T11:46:53Z) - SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - CCasGNN: Collaborative Cascade Prediction Based on Graph Neural Networks [0.49269463638915806]
カスケード予測は,ネットワーク内の情報拡散をモデル化することを目的とした。
グラフニューラルネットワークとリカレントニューラルネットワークによるネットワーク構造とシーケンス特徴の組み合わせに関する研究
本稿では,個々のプロファイル,構造特徴,シーケンス情報を考慮した新しいCCasGNNを提案する。
論文 参考訳(メタデータ) (2021-12-07T11:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。