論文の概要: Node Preservation and its Effect on Crossover in Cartesian Genetic Programming
- arxiv url: http://arxiv.org/abs/2511.00634v1
- Date: Sat, 01 Nov 2025 17:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.871296
- Title: Node Preservation and its Effect on Crossover in Cartesian Genetic Programming
- Title(参考訳): モンテカルロ遺伝プログラミングにおけるノード保存とその交叉効果
- Authors: Mark Kocherovsky, Illya Bakurov, Wolfgang Banzhaf,
- Abstract要約: ノードが保存されている変種に対して,基本的なクロスオーバー法,すなわちワンポイント法と均一法を比較した。」
突然変異とクロスオーバーの両方におけるノードの保存は、シンボリック・レグレッション・ベンチマーク問題を用いた探索を改善する。
- 参考スコア(独自算出の注目度): 2.295470702460389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While crossover is a critical and often indispensable component in other forms of Genetic Programming, such as Linear- and Tree-based, it has consistently been claimed that it deteriorates search performance in CGP. As a result, a mutation-alone $(1+\lambda)$ evolutionary strategy has become the canonical approach for CGP. Although several operators have been developed that demonstrate an increased performance over the canonical method, a general solution to the problem is still lacking. In this paper, we compare basic crossover methods, namely one-point and uniform, to variants in which nodes are ``preserved,'' including the subgraph crossover developed by Roman Kalkreuth, the difference being that when ``node preservation'' is active, crossover is not allowed to break apart instructions. We also compare a node mutation operator to the traditional point mutation; the former simply replaces an entire node with a new one. We find that node preservation in both mutation and crossover improves search using symbolic regression benchmark problems, moving the field towards a general solution to CGP crossover.
- Abstract(参考訳): クロスオーバーは、リニアやツリーベースなど、他の遺伝プログラミングにおける重要な要素であり、しばしば必須の要素であるが、CGPにおける探索性能を劣化させると一貫して主張されている。
その結果、1+\lambda)$1+\lambdaの進化戦略がCGPの標準的アプローチとなった。
標準法よりも高い性能を示す演算子がいくつか開発されているが、この問題に対する一般的な解決策はいまだに不足している。
本稿では,一点法と一点法という基本的なクロスオーバー法と,ロマン・カルクロイトによって開発された部分グラフのクロスオーバーを含むノードが '`保存' である変種を比較し,その違いとして,'`ノード保存' がアクティブである場合,クロスオーバーは命令を分割することができない。
また、ノードの突然変異演算子を従来の点突然変異と比較し、前者はノード全体を新しい点に置き換える。
突然変異とクロスオーバーの両方におけるノードの保存は、シンボリック・レグレッション・ベンチマーク問題を用いて探索を改善し、一般解からCGPクロスオーバーへフィールドを移動させる。
関連論文リスト
- Analysing the Influence of Reorder Strategies for Cartesian Genetic Programming [0.0]
CGPで定義されるグラフのジェノタイプを並べ替える3つの新しい作用素を導入する。
そこで本研究では,CGPをリオーダー法で使用することにより,解が見つかるまでの反復数や適合度が向上することを示す。
しかし、最良のリオーダー演算子は存在しない。
論文 参考訳(メタデータ) (2024-10-01T08:59:01Z) - HHGT: Hierarchical Heterogeneous Graph Transformer for Heterogeneous Graph Representation Learning [19.667806439200792]
K,t)-ring neighborhoodと呼ばれる革新的な構造を開発し、ノードはまずその距離によって構成され、各距離ごとに異なる非重なり合うk-ring neighborhoodを形成する。
各 k-環構造の中で、ノードはそれらのタイプによってさらに異なるグループに分類されるので、HINにおける距離と型の両方の不均一性を自然に強調する。
HHGTの14ベースラインに対する優位性を検証するために、下流タスクで実験が行われ、ノードクラスタリングタスクでは、NMIが24.75%、ARIが29.25%まで改善された。
論文 参考訳(メタデータ) (2024-07-18T04:58:27Z) - Provable Training for Graph Contrastive Learning [58.8128675529977]
Graph Contrastive Learning (GCL)は、ラベルのない拡張グラフからノード埋め込みを学習するための一般的なトレーニング手法として登場した。
GCLのトレーニングは、実際にはすべてのノードで不均衡であることを示す。
ノードがGCLの原理に従う方法の下位境界である計量「ノードコンパクト性」を提案する。
論文 参考訳(メタデータ) (2023-09-25T08:23:53Z) - Shortest Edit Path Crossover: A Theory-driven Solution to the
Permutation Problem in Evolutionary Neural Architecture Search [20.948038514886377]
人口ベースサーチは、ブラックボックスニューラルネットワークサーチ(NAS)の強化学習(Reinforcement Learning, RL)に代わる可能性として浮上している。
ブラックボックスNASにおける変異,クロスオーバー,RLの挙動に関する最初の理論的解析を行った。
グラフ空間における最短編集パス(SEP)に基づく新しいクロスオーバー演算子を提案する。
論文 参考訳(メタデータ) (2022-10-25T13:39:55Z) - Asymptotics of $\ell_2$ Regularized Network Embeddings [0.0]
ノード分類やリンク予測といったタスクを解決するための一般的なアプローチは、ネットワークのノードのユークリッド埋め込みを学ぶことから始まる。
DeepWalkやnode2vecのような教師なしのランダムウォークメソッドでは、損失に埋め込みベクターに$ell$ペナルティを追加することで、ダウンストリームタスクのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-01-05T16:33:14Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。