論文の概要: Variational methods for Learning Multilevel Genetic Algorithms using the Kantorovich Monad
- arxiv url: http://arxiv.org/abs/2411.09779v1
- Date: Thu, 14 Nov 2024 19:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:38:28.733218
- Title: Variational methods for Learning Multilevel Genetic Algorithms using the Kantorovich Monad
- Title(参考訳): カントロビッチモナドを用いた多段階遺伝的アルゴリズムの変分法
- Authors: Jonathan Warrell, Francesco Alesiani, Cameron Smith, Anja Mösch, Martin Renqiang Min,
- Abstract要約: 選択のレベルと多段階の進化過程は、進化論において不可欠な概念である。
多段階進化過程の定式化と最適化のための統一的な数学的枠組みを提案する。
我々は、我々のフレームワークが遺伝的アルゴリズムを学習するための統一的な設定をいかに提供できるかを示す。
- 参考スコア(独自算出の注目度): 17.15561330252919
- License:
- Abstract: Levels of selection and multilevel evolutionary processes are essential concepts in evolutionary theory, and yet there is a lack of common mathematical models for these core ideas. Here, we propose a unified mathematical framework for formulating and optimizing multilevel evolutionary processes and genetic algorithms over arbitrarily many levels based on concepts from category theory and population genetics. We formulate a multilevel version of the Wright-Fisher process using this approach, and we show that this model can be analyzed to clarify key features of multilevel selection. Particularly, we derive an extended multilevel probabilistic version of Price's Equation via the Kantorovich Monad, and we use this to characterize regimes of parameter space within which selection acts antagonistically or cooperatively across levels. Finally, we show how our framework can provide a unified setting for learning genetic algorithms (GAs), and we show how we can use a Variational Optimization and a multi-level analogue of coalescent analysis to fit multilevel GAs to simulated data.
- Abstract(参考訳): 選択のレベルと多段階の進化過程は進化論において不可欠な概念であるが、これらの中心的概念に共通する数学的モデルが欠如している。
本稿では,多段階進化過程と遺伝的アルゴリズムを,カテゴリー理論や集団遺伝学の概念に基づいて任意に多段階にわたって定式化し,最適化するための統一的な数学的枠組みを提案する。
本手法を用いてライト・フィッシャー過程のマルチレベルバージョンを定式化し,本モデルを用いて多レベル選択の重要な特徴を明らかにする。
特に、関東ロビッチモナドを通じて、プライス方程式の多値確率バージョンを導出し、この手法を用いて、選択が対角的あるいは協調的に作用するパラメータ空間の規則を特徴づける。
最後に、我々のフレームワークがどのようにして遺伝的アルゴリズム(GA)を学習するための統一的な設定を提供できるかを示し、変動最適化と合体分析の多レベルアナログを用いて、マルチレベルGAをシミュレーションデータに適合させることができるかを示す。
関連論文リスト
- Continuous Cartesian Genetic Programming based representation for
Multi-Objective Neural Architecture Search [12.545742558041583]
我々は、より複雑で高効率な畳み込みニューラルネットワーク(CNN)を設計するための新しいアプローチを提案する。
我々のアプローチは、ニューラルネットワーク探索(NAS)のためのカルテシアン遺伝的プログラミング(CGP)に基づく実ベースCNNとブロックチェーンCNNの表現を組み合わせたものである。
それらが考慮する探索空間の粒度が異なる2つの変種が導入された。
論文 参考訳(メタデータ) (2023-06-05T07:32:47Z) - Discovering Attention-Based Genetic Algorithms via Meta-Black-Box
Optimization [13.131971623143622]
全く新しい遺伝的アルゴリズムをデータ駆動方式で発見する。
我々は、選択と突然変異率の適応をクロスアテンションモジュールおよびセルフアテンションモジュールとしてパラメトリズする。
学習アルゴリズムは、未確認の最適化問題、探索次元、評価予算に適用できる。
論文 参考訳(メタデータ) (2023-04-08T12:14:15Z) - Stochastic Gradient Descent-Ascent: Unified Theory and New Efficient
Methods [73.35353358543507]
SGDA(Gradient Descent-Ascent)は、min-max最適化と変分不等式問題(VIP)を解くための最も顕著なアルゴリズムの1つである。
本稿では,多種多様な降下指数法を網羅した統合収束解析を提案する。
本研究では,新しい分散化手法 (L-SVRGDA) や,新しい分散圧縮方式 (QSGDA, DIANA-SGDA, VR-DIANA-SGDA) ,座標ランダム化方式 (SEGA-SGDA) など,SGDAの新しい変種を開発した。
論文 参考訳(メタデータ) (2022-02-15T09:17:39Z) - Diversity Enhancement via Magnitude [7.005458308454871]
我々は最近開発された等級理論を用いて勾配流と類似の概念を構築し、ユークリッド空間の有限部分集合を体系的に操作してそれらの多様性を高める。
本稿では,主要なアルゴリズムを用いてベンチマーク問題に対する多様性向上を実証し,フレームワークの拡張について議論する。
論文 参考訳(メタデータ) (2022-01-25T01:38:53Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Evolving Evolutionary Algorithms with Patterns [0.0]
このモデルは、MEP(Multi Expression Programming)技術に基づいている。
関数最適化のためのいくつかの進化的アルゴリズムは、考慮されたモデルを用いて進化する。
論文 参考訳(メタデータ) (2021-10-10T16:26:20Z) - Gated recurrent units and temporal convolutional network for multilabel
classification [122.84638446560663]
本研究は,マルチラベル分類を管理するための新しいアンサンブル手法を提案する。
提案手法のコアは,Adamグラデーション最適化アプローチの変種で訓練された,ゲート再帰単位と時間畳み込みニューラルネットワークの組み合わせである。
論文 参考訳(メタデータ) (2021-10-09T00:00:16Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Evolutionary Variational Optimization of Generative Models [0.0]
分散最適化と進化的アルゴリズムの2つの一般的な最適化アプローチをジェネレーションモデルのための学習アルゴリズムの導出に組み合わせます。
進化的アルゴリズムは変動境界を効果的かつ効率的に最適化できることを示す。
ゼロショット」学習のカテゴリでは、多くのベンチマーク設定で最先端の技術を大幅に改善するために進化的変動アルゴリズムを観察しました。
論文 参考訳(メタデータ) (2020-12-22T19:06:33Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。