論文の概要: Simulated annealing for optimization of graphs and sequences
- arxiv url: http://arxiv.org/abs/2110.01384v1
- Date: Fri, 1 Oct 2021 01:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:51:38.693954
- Title: Simulated annealing for optimization of graphs and sequences
- Title(参考訳): グラフとシーケンスの最適化のためのシミュレーションアニーリング
- Authors: Xianggen Liu, Pengyong Li, Fandong Meng, Hao Zhou, Huasong Zhong, Jie
Zhou, Lili Mou and Sen Song
- Abstract要約: 本稿では,グラフとシーケンス最適化のための新しいアニーリングフレームワークであるSAGSを紹介する。
まず、関心の性質と事前定義された制約を含む、洗練された客観的関数を定義する。
SAGSは離散空間からこの目的に向かって、一連のローカル編集を実行することで検索する。
- 参考スコア(独自算出の注目度): 44.974718959154266
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Optimization of discrete structures aims at generating a new structure with
the better property given an existing one, which is a fundamental problem in
machine learning. Different from the continuous optimization, the realistic
applications of discrete optimization (e.g., text generation) are very
challenging due to the complex and long-range constraints, including both
syntax and semantics, in discrete structures. In this work, we present SAGS, a
novel Simulated Annealing framework for Graph and Sequence optimization. The
key idea is to integrate powerful neural networks into metaheuristics (e.g.,
simulated annealing, SA) to restrict the search space in discrete optimization.
We start by defining a sophisticated objective function, involving the property
of interest and pre-defined constraints (e.g., grammar validity). SAGS searches
from the discrete space towards this objective by performing a sequence of
local edits, where deep generative neural networks propose the editing content
and thus can control the quality of editing. We evaluate SAGS on paraphrase
generation and molecule generation for sequence optimization and graph
optimization, respectively. Extensive results show that our approach achieves
state-of-the-art performance compared with existing paraphrase generation
methods in terms of both automatic and human evaluations. Further, SAGS also
significantly outperforms all the previous methods in molecule generation.
- Abstract(参考訳): 離散構造の最適化は、既存の構造よりも優れた性質を持つ新しい構造を生成することを目的としている。
連続最適化とは異なり、離散的最適化(例えばテキスト生成)の現実的な応用は、構文と意味論の両方を含む複雑で長距離の制約のために、離散的構造において非常に困難である。
本稿では,グラフとシーケンス最適化のための新しいアニーリングフレームワークであるSAGSを紹介する。
鍵となる考え方は、強力なニューラルネットワークをメタヒューリスティック(例えば、シミュレートされたアニール、SA)に統合し、離散最適化において探索空間を制限することである。
まず、興味の特性と事前定義された制約(例えば文法の妥当性)を含む洗練された客観的関数を定義する。
SAGSはこの目的に向かって離散的な空間から探索し、局所的な編集を行い、深層生成ニューラルネットワークが編集内容を提案し、編集の質を制御できる。
パラフレーズ生成と分子生成に関するSAGSを,それぞれシーケンス最適化とグラフ最適化のために評価した。
提案手法は, 従来のパラフレーズ生成手法と比較して, 自動評価と人的評価の両面で, 最先端の性能を達成できることを示す。
さらに、SAGSは分子生成におけるこれまでの手法を著しく上回っている。
関連論文リスト
- Explicit and Implicit Graduated Optimization in Deep Neural Networks [0.6906005491572401]
本稿では,最適雑音スケジューリングを用いた明示的な累積最適化アルゴリズムの性能を実験的に評価する。
さらに、ResNetアーキテクチャを用いた画像分類タスクの実験を通じて、その効果を実証する。
論文 参考訳(メタデータ) (2024-12-16T07:23:22Z) - Evolutionary Pre-Prompt Optimization for Mathematical Reasoning [45.461506988071534]
本稿では,実効的なチェーン・オブ・フォー・プレプロンプトの設計におけるサンプル選択の最適化について検討する。
アルゴリズムの選択は、通常、進化的計算のような比較に基づく手法に有利であり、有効性と実現可能性を大幅に向上させることを示している。
論文 参考訳(メタデータ) (2024-12-05T16:12:06Z) - PGSO: Prompt-based Generative Sequence Optimization Network for Aspect-based Sentiment Analysis [9.617652261815671]
ルールベースの静的最適化とスコアベースの動的最適化という2つのシーケンス最適化戦略を導入する。
動的最適化構造に基づいて、統一されたPromptベースの生成系列最適化ネットワーク(PGSO)を提案する。
複数のベンチマークで4つのABSAタスクで実施された実験は、PGSOが最先端の手法より優れており、F1スコアの平均3.52%改善していることを示している。
論文 参考訳(メタデータ) (2024-12-01T10:49:55Z) - Towards Explainable Evolution Strategies with Large Language Models [0.0]
本稿では,自己適応的進化戦略(ES)と大規模言語モデル(LLM)を統合するアプローチを提案する。
再起動機構を備えた自己適応型ESを用いることで、ベンチマーク関数の難易度を効果的にナビゲートする。
LLMを使用してこれらのログを処理し、簡潔でユーザフレンドリーな要約を生成する。
論文 参考訳(メタデータ) (2024-07-11T09:28:27Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - EOS: a Parallel, Self-Adaptive, Multi-Population Evolutionary Algorithm
for Constrained Global Optimization [68.8204255655161]
EOSは実数値変数の制約付きおよび制約なし問題に対する大域的最適化アルゴリズムである。
これはよく知られた微分進化(DE)アルゴリズムに多くの改良を加えている。
その結果、EOSisは、最先端の単一人口自己適応Dアルゴリズムと比較して高い性能を達成可能であることが証明された。
論文 参考訳(メタデータ) (2020-07-09T10:19:22Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。