論文の概要: Failed Disruption Propagation in Integer Genetic Programming
- arxiv url: http://arxiv.org/abs/2204.13997v1
- Date: Mon, 4 Apr 2022 07:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 00:05:50.257322
- Title: Failed Disruption Propagation in Integer Genetic Programming
- Title(参考訳): 整数型遺伝的プログラミングにおける破壊伝播
- Authors: William B. Langdon
- Abstract要約: 交叉と突然変異の影響は散逸し、プログラムの外ではめったに伝播しない。
整数 GP において、深い記号的回帰浮動小数点 GP や一般にソフトウェアは脆弱ではなく、堅牢であり、カオス的ではなく、ローレンツの蝶にほとんど悩まされない。
- 参考スコア(独自算出の注目度): 0.3553493344868413
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We inject a random value into the evaluation of highly evolved deep integer
GP trees 9743720 times and find 99.7percent Suggesting crossover and mutation's
impact are dissipated and seldom propagate outside the program. Indeed only
errors near the root node have impact and disruption falls exponentially with
depth at between exp(-depth/3) and exp(-depth/5) for recursive Fibonacci GP
trees, allowing five to seven levels of nesting between the runtime
perturbation and an optimal test oracle for it to detect most errors.
Information theory explains this locally flat fitness landscape is due to FDP.
Overflow is not important and instead, integer GP, like deep symbolic
regression floating point GP and software in general, is not fragile, is
robust, is not chaotic and suffers little from Lorenz' butterfly. Keywords:
genetic algorithms, genetic programming, SBSE, information loss, information
funnels, entropy, evolvability, mutational robustness, optimal test oracle
placement, neutral networks, software robustness, correctness attraction,
diversity, software testing, theory of bloat, introns
- Abstract(参考訳): 高度に進化した深いGP木9743720回の評価にランダムな値を注入し、99.7%のSuggestingクロスオーバーと突然変異の影響がプログラム外に散逸し、ほとんど伝播しないことを示す。
実際、ルートノード近くのエラーだけが影響を受け、破壊は指数関数的に、再帰的なFibonacci GPツリーのexp(-deepth/3)とexp(-deepth/5)の間の深さで発生する。
情報理論はこの局所的な平坦なフィットネスランドスケープはFDPによるものだと説明している。
オーバーフローは重要ではなく、より深い記号的回帰浮動小数点 GP や一般にソフトウェアのように、整数 GP は脆弱ではなく、堅牢であり、カオスではなく、ローレンツの蝶にほとんど苦しむ。
キーワード: 遺伝アルゴリズム、遺伝的プログラミング、SBSE、情報損失、情報漏えい、エントロピー、進化可能性、突然変異堅牢性、最適なテストオラクル配置、中立ネットワーク、ソフトウェア堅牢性、正性魅力、多様性、ソフトウェアテスト、肥大理論、イントロン
関連論文リスト
- PhyloGFN: Phylogenetic inference with generative flow networks [57.104166650526416]
本稿では,系統学における2つの中核的問題に対処するための生成フローネットワーク(GFlowNets)の枠組みを紹介する。
GFlowNetsは複雑な構造をサンプリングするのに適しているため、木トポロジー上の多重モード後部分布を探索し、サンプリングするのに自然な選択である。
我々は, 実際のベンチマークデータセット上で, 様々な, 高品質な進化仮説を生成できることを実証した。
論文 参考訳(メタデータ) (2023-10-12T23:46:08Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Bayes-optimal Learning of Deep Random Networks of Extensive-width [22.640648403570957]
ランダムなガウス重みを持つディープで広範で非線形なニューラルネットワークに対応する対象関数を学習する問題を考察する。
我々は、リッジ回帰、カーネル、ランダム特徴回帰のテストエラーに対するクローズドフォーム式を計算した。
数値的に、サンプルの数が次元よりも早く増加すると、リッジ法とカーネル法は最適以下になるが、ニューラルネットワークは2次的に多くのサンプルからゼロに近いテスト誤差を達成する。
論文 参考訳(メタデータ) (2023-02-01T11:14:08Z) - GFlowOut: Dropout with Generative Flow Networks [76.59535235717631]
モンテカルロ・ドロップアウトは近似推論の比較的安価な方法として広く利用されている。
最近の研究は、ドロップアウトマスクを潜伏変数と見なすことができ、変動推論で推測できることを示している。
GFlowOutleveragesは、最近提案されたジェネレーティブフローネットワーク(GFlowNets)の確率的フレームワークを使用して、ドロップアウトマスク上の後部分布を学習する。
論文 参考訳(メタデータ) (2022-10-24T03:00:01Z) - Hebbian Deep Learning Without Feedback [0.0]
我々は、フィードバック、ターゲット、エラー信号なしでディープニューラルネットワークをトレーニングするアルゴリズムであるSoftHebbを紹介する。
その効率性と生物学的適合性の向上は、最先端の生物工学学習と比べて正確さを損なわない。
論文 参考訳(メタデータ) (2022-09-23T23:12:59Z) - Towards Scaling Difference Target Propagation by Learning Backprop
Targets [64.90165892557776]
Different Target Propagationは,Gauss-Newton(GN)最適化と密接な関係を持つ生物学的に証明可能な学習アルゴリズムである。
本稿では、DTPがBPを近似し、階層的なフィードバックウェイトトレーニングを復元できる新しいフィードバックウェイトトレーニング手法を提案する。
CIFAR-10 と ImageNet 上で DTP が達成した最高の性能について報告する。
論文 参考訳(メタデータ) (2022-01-31T18:20:43Z) - Evolving Open Complexity [0.0]
大規模進化プログラムの情報理論解析は、浮動小数点加算や乗算ゆるいエントロピーのように滑らかでよく振る舞う機能を示している。
進化が合理的な速度で進むためには、ほとんどのコード変更の影響を測定する必要があります。
ほとんどの変異部位が生物の環境の10から100レベル以内にあるオープンアーキテクチャを採用する必要がある。
論文 参考訳(メタデータ) (2021-12-01T20:09:04Z) - SoftHebb: Bayesian inference in unsupervised Hebbian soft
winner-take-all networks [1.125159338610819]
入賞者全員(WTA)ネットワークにおけるヘビアン学習は、教師されず、フィードフォワードであり、生物学的に妥当である。
我々は、生物学的に可塑性だが汎用的なANN要素に基づいて、そのような理論を正式に導出する。
我々は実際に我々の理論を確認し、手書き桁(MNIST)認識において、ヘビアンアルゴリズムであるSoftHebbは、それにアクセスすることなくクロスエントロピーを最小化する。
論文 参考訳(メタデータ) (2021-07-12T21:34:45Z) - Convergence and Alignment of Gradient Descentwith Random Back
propagation Weights [6.338178373376447]
バックプロパゲーションによる勾配降下は 人工ニューラルネットワークの 働き方です
Lillicrapらは、ランダムなバックプロパゲーションと固定されたバックプロパゲーションの重みを利用する、生物学的にもっともらしい「フィードバックアライメント」アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:58:05Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Understanding and Resolving Performance Degradation in Graph
Convolutional Networks [105.14867349802898]
グラフ畳み込みネットワーク(GCN)は複数のレイヤを積み重ね、グラフ構造化データ上でノード表現を学習するためのPROPとTRANを実行する。
GCNはモデルが深くなるとパフォーマンスが低下する傾向がある。
本稿では,TRANやPROPのみを積み重ねることによるGCNの性能劣化について実験的に検討する。
論文 参考訳(メタデータ) (2020-06-12T12:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。