論文の概要: A multiplicity-preserving crossover operator on graphs. Extended version
- arxiv url: http://arxiv.org/abs/2208.10881v1
- Date: Tue, 23 Aug 2022 11:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:08:31.209934
- Title: A multiplicity-preserving crossover operator on graphs. Extended version
- Title(参考訳): グラフ上の多重性保存クロスオーバー演算子。
拡張版
- Authors: Henri Th\"olke and Jens Kosiol
- Abstract要約: モデル駆動最適化(MDO)のための汎用クロスオーバー演算子を開発する。
我々は、与えられた多重度制約を入力として満たす2つのモデルを考えると、洗練されたクロスオーバー演算子は2つの新しいモデルを出力として計算し、同時に制約の集合を満たすことを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evolutionary algorithms usually explore a search space of solutions by means
of crossover and mutation. While a mutation consists of a small, local
modification of a solution, crossover mixes the genetic information of two
solutions to compute a new one. For model-driven optimization (MDO), where
models directly serve as possible solutions (instead of first transforming them
into another representation), only recently a generic crossover operator has
been developed. Using graphs as a formal foundation for models, we further
refine this operator in such a way that additional well-formedness constraints
are preserved: We prove that, given two models that satisfy a given set of
multiplicity constraints as input, our refined crossover operator computes two
new models as output that also satisfy the set of constraints.
- Abstract(参考訳): 進化的アルゴリズムは通常、交叉と突然変異によって解の探索空間を探索する。
変異は溶液の小さな局所的な修飾から成り立っているが、クロスオーバーは2つの解の遺伝情報を混合して新しいものを計算する。
モデル駆動最適化(MDO)では、モデルが(最初に別の表現に変換する代わりに)直接可能な解決策として機能する。
私たちは、与えられた多重性制約のセットを入力として満足する2つのモデルが与えられたとき、洗練されたクロスオーバー演算子は、制約のセットを満足する出力として2つの新しいモデルを計算することを証明します。
関連論文リスト
- Non-Dominated Sorting Bidirectional Differential Coevolution [0.0]
本稿では、微分進化(DE)を伴う双方向共進化アルゴリズム(BiCo)の変種を提案する。
このモデルの新規性には、主検索エンジンとしてのDE差分変異とクロスオーバー演算子、および非支配的なソート選択スキームが含まれる。
2つのベンチマークテストスイートと8つの実世界のCMOPの実験結果から、提案モデルが元のモデルよりも全体的な性能に到達したことが示唆された。
論文 参考訳(メタデータ) (2024-10-25T09:58:15Z) - SurgeryV2: Bridging the Gap Between Model Merging and Multi-Task Learning with Deep Representation Surgery [54.866490321241905]
モデルマージに基づくマルチタスク学習(MTL)は、複数のエキスパートモデルをマージしてMTLを実行するための有望なアプローチを提供する。
本稿では,統合モデルの表現分布について検討し,「表現バイアス」の重要な問題を明らかにする。
このバイアスは、マージされたMTLモデルの表現と専門家モデルの間の大きな分布ギャップから生じ、マージされたMTLモデルの最適下性能に繋がる。
論文 参考訳(メタデータ) (2024-10-18T11:49:40Z) - PLeaS -- Merging Models with Permutations and Least Squares [43.17620198572947]
モデル決定型PLeaSをマージする2段階のアルゴリズムを提案する。
PLeaSはアライメントを最大化することで各層のノードに部分的にマッチする。
マージされたモデルの重みをレイヤワイズ・リースト・スクエアの解として計算する。
論文 参考訳(メタデータ) (2024-07-02T17:24:04Z) - Solving Inverse Problems with Model Mismatch using Untrained Neural Networks within Model-based Architectures [14.551812310439004]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
提案手法は,パラメータ感受性が低く,追加データを必要としない統一解を提供し,前方モデルの同時適用と1パスの再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Merging Text Transformer Models from Different Initializations [7.768975909119287]
異なるTransformer minimaが類似した特徴を学習する程度について検討する。
損失景観におけるこれらのミニマの関係を調べるためのモデルマージ手法を提案する。
以上の結果から,これらのモデルのミニマは従来理解されていたよりもシャープで孤立していないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-01T21:16:29Z) - Representation Surgery for Multi-Task Model Merging [57.63643005215592]
マルチタスク学習(MTL)は、複数のタスクから情報を統一されたバックボーンに圧縮し、計算効率と一般化を改善する。
最近の研究は、複数の独立して訓練されたモデルをマージして、共同トレーニングのために生データを収集する代わりにMLLを実行する。
既存のモデルマージスキームの表現分布を可視化することにより、マージモデルはしばしば表現バイアスのジレンマに悩まされる。
論文 参考訳(メタデータ) (2024-02-05T03:39:39Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Efficient Alternating Minimization Solvers for Wyner Multi-View
Unsupervised Learning [0.0]
本稿では,計算効率のよい解法の開発を可能にする2つの新しい定式化法を提案する。
提案した解法は, 計算効率, 理論的収束保証, ビュー数による局所最小値複雑性, 最先端技術と比較して, 例外的な精度を提供する。
論文 参考訳(メタデータ) (2023-03-28T10:17:51Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Universal and data-adaptive algorithms for model selection in linear
contextual bandits [52.47796554359261]
モデル選択の最も単純な非自明な例を考える: 単純な多重武装バンディット問題と線形文脈バンディット問題とを区別する。
データ適応的な方法で探索する新しいアルゴリズムを導入し、$mathcalO(dalpha T1- alpha)$という形式の保証を提供する。
我々のアプローチは、いくつかの仮定の下で、ネストされた線形文脈包帯のモデル選択に拡張する。
論文 参考訳(メタデータ) (2021-11-08T18:05:35Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。