論文の概要: A multiplicity-preserving crossover operator on graphs. Extended version
- arxiv url: http://arxiv.org/abs/2208.10881v1
- Date: Tue, 23 Aug 2022 11:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:08:31.209934
- Title: A multiplicity-preserving crossover operator on graphs. Extended version
- Title(参考訳): グラフ上の多重性保存クロスオーバー演算子。
拡張版
- Authors: Henri Th\"olke and Jens Kosiol
- Abstract要約: モデル駆動最適化(MDO)のための汎用クロスオーバー演算子を開発する。
我々は、与えられた多重度制約を入力として満たす2つのモデルを考えると、洗練されたクロスオーバー演算子は2つの新しいモデルを出力として計算し、同時に制約の集合を満たすことを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evolutionary algorithms usually explore a search space of solutions by means
of crossover and mutation. While a mutation consists of a small, local
modification of a solution, crossover mixes the genetic information of two
solutions to compute a new one. For model-driven optimization (MDO), where
models directly serve as possible solutions (instead of first transforming them
into another representation), only recently a generic crossover operator has
been developed. Using graphs as a formal foundation for models, we further
refine this operator in such a way that additional well-formedness constraints
are preserved: We prove that, given two models that satisfy a given set of
multiplicity constraints as input, our refined crossover operator computes two
new models as output that also satisfy the set of constraints.
- Abstract(参考訳): 進化的アルゴリズムは通常、交叉と突然変異によって解の探索空間を探索する。
変異は溶液の小さな局所的な修飾から成り立っているが、クロスオーバーは2つの解の遺伝情報を混合して新しいものを計算する。
モデル駆動最適化(MDO)では、モデルが(最初に別の表現に変換する代わりに)直接可能な解決策として機能する。
私たちは、与えられた多重性制約のセットを入力として満足する2つのモデルが与えられたとき、洗練されたクロスオーバー演算子は、制約のセットを満足する出力として2つの新しいモデルを計算することを証明します。
関連論文リスト
- Merging Text Transformer Models from Different Initializations [7.768975909119287]
異なるTransformer minimaが類似した特徴を学習する程度について検討する。
損失景観におけるこれらのミニマの関係を調べるためのモデルマージ手法を提案する。
以上の結果から,これらのモデルのミニマは従来理解されていたよりもシャープで孤立していないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-01T21:16:29Z) - Representation Surgery for Multi-Task Model Merging [60.52665037255662]
マルチタスク学習(MTL)は、複数のタスクから情報を統一されたバックボーンに圧縮し、計算効率と一般化を改善する。
最近の研究は、複数の独立して訓練されたモデルをマージして、共同トレーニングのために生データを収集する代わりにMLLを実行する。
既存のモデルマージスキームの表現分布を可視化することにより、マージモデルはしばしば表現バイアスのジレンマに悩まされる。
論文 参考訳(メタデータ) (2024-02-05T03:39:39Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Efficient Alternating Minimization Solvers for Wyner Multi-View
Unsupervised Learning [0.0]
本稿では,計算効率のよい解法の開発を可能にする2つの新しい定式化法を提案する。
提案した解法は, 計算効率, 理論的収束保証, ビュー数による局所最小値複雑性, 最先端技術と比較して, 例外的な精度を提供する。
論文 参考訳(メタデータ) (2023-03-28T10:17:51Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Universal and data-adaptive algorithms for model selection in linear
contextual bandits [52.47796554359261]
モデル選択の最も単純な非自明な例を考える: 単純な多重武装バンディット問題と線形文脈バンディット問題とを区別する。
データ適応的な方法で探索する新しいアルゴリズムを導入し、$mathcalO(dalpha T1- alpha)$という形式の保証を提供する。
我々のアプローチは、いくつかの仮定の下で、ネストされた線形文脈包帯のモデル選択に拡張する。
論文 参考訳(メタデータ) (2021-11-08T18:05:35Z) - Complexity-based partitioning of CSFI problem instances with
Transformers [0.3867363075280544]
共役正規形式 (CNF) の合成式同型問題を異なる複雑性の群に分割する2段階のアプローチを提案する。
提案手法を擬似ランダムに生成したデータセット上で評価し,有望な結果を得た。
論文 参考訳(メタデータ) (2021-06-28T08:48:12Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。