論文の概要: Heuristically Adaptive Diffusion-Model Evolutionary Strategy
- arxiv url: http://arxiv.org/abs/2411.13420v1
- Date: Wed, 20 Nov 2024 16:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:13:48.107944
- Title: Heuristically Adaptive Diffusion-Model Evolutionary Strategy
- Title(参考訳): Heuristally Adaptive Diffusion-Model Evolutionary Strategy
- Authors: Benedikt Hartl, Yanbo Zhang, Hananel Hazan, Michael Levin,
- Abstract要約: 拡散モデル(Diffusion Models)は、生成モデルにおいて重要な進歩を示す。
本研究は,拡散モデルと進化的アルゴリズムの基本的な関係を明らかにする。
我々のフレームワークは、進化的最適化プロセスにおいて、柔軟性、精度、制御性を高めたアルゴリズム上の大きな遷移を示す。
- 参考スコア(独自算出の注目度): 1.8299322342860518
- License:
- Abstract: Diffusion Models represent a significant advancement in generative modeling, employing a dual-phase process that first degrades domain-specific information via Gaussian noise and restores it through a trainable model. This framework enables pure noise-to-data generation and modular reconstruction of, images or videos. Concurrently, evolutionary algorithms employ optimization methods inspired by biological principles to refine sets of numerical parameters encoding potential solutions to rugged objective functions. Our research reveals a fundamental connection between diffusion models and evolutionary algorithms through their shared underlying generative mechanisms: both methods generate high-quality samples via iterative refinement on random initial distributions. By employing deep learning-based diffusion models as generative models across diverse evolutionary tasks and iteratively refining diffusion models with heuristically acquired databases, we can iteratively sample potentially better-adapted offspring parameters, integrating them into successive generations of the diffusion model. This approach achieves efficient convergence toward high-fitness parameters while maintaining explorative diversity. Diffusion models introduce enhanced memory capabilities into evolutionary algorithms, retaining historical information across generations and leveraging subtle data correlations to generate refined samples. We elevate evolutionary algorithms from procedures with shallow heuristics to frameworks with deep memory. By deploying classifier-free guidance for conditional sampling at the parameter level, we achieve precise control over evolutionary search dynamics to further specific genotypical, phenotypical, or population-wide traits. Our framework marks a major heuristic and algorithmic transition, offering increased flexibility, precision, and control in evolutionary optimization processes.
- Abstract(参考訳): 拡散モデル(Diffusion Models)は、ガウスノイズによってまずドメイン固有の情報を分解し、訓練可能なモデルによって復元する二相プロセスを用いて、生成モデリングの大幅な進歩を表現している。
このフレームワークは、純粋なノイズ・ツー・データ生成と、画像やビデオのモジュール化を可能にする。
同時に、進化的アルゴリズムは生物学的原理にインスパイアされた最適化手法を用いて、頑丈な目的関数に対する潜在的な解を符号化する数値パラメータの集合を洗練する。
本研究は, 拡散モデルと進化的アルゴリズムの基本的な関係を, その共通生成機構により明らかにする: どちらの手法も, ランダムな初期分布の反復的改良により, 高品質なサンプルを生成する。
深層学習に基づく拡散モデルを、多様な進化的タスクにまたがる生成モデルとして利用し、ヒューリスティックに取得したデータベースで反復的に拡散モデルを精製することにより、より適応性の高い子孫パラメータを反復的にサンプリングし、拡散モデルを連続した世代に組み込むことができる。
このアプローチは、爆発的な多様性を維持しながら、高適合度パラメータへの効率的な収束を実現する。
拡散モデルは進化アルゴリズムに拡張メモリ機能を導入し、世代間での履歴情報を保持し、微妙なデータ相関を利用して洗練されたサンプルを生成する。
我々は、浅いヒューリスティックな手順から深い記憶を持つフレームワークまで進化的アルゴリズムを高めている。
パラメータレベルでの条件付きサンプリングのための分類子なしガイダンスを配置することにより、より特定の遺伝子型、表現型、または集団全体の特性に対する進化的探索ダイナミクスの正確な制御を実現する。
我々のフレームワークは、進化的最適化プロセスにおいて、柔軟性、精度、制御性を高めた、ヒューリスティックでアルゴリズム的な遷移を示す。
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Fine-Tuning Discrete Diffusion Models via Reward Optimization with Applications to DNA and Protein Design [56.957070405026194]
拡散モデルにより生成された軌道全体を通して報酬の直接バックプロパゲーションを可能にするアルゴリズムを提案する。
DRAKESは自然に似ており、高い報酬をもたらすシーケンスを生成することができる。
論文 参考訳(メタデータ) (2024-10-17T15:10:13Z) - Controlling the Fidelity and Diversity of Deep Generative Models via Pseudo Density [70.14884528360199]
本稿では, GAN や拡散モデルなどのバイアス深層生成モデルへのアプローチを導入し, 忠実度の向上や多様性の向上を図ったデータ生成手法を提案する。
提案手法では, 擬似密度という, 個人サンプルの新たな測定基準を用いて, トレーニングとデータ生成の分布を操作する。
論文 参考訳(メタデータ) (2024-07-11T16:46:04Z) - Improving Out-of-Distribution Robustness of Classifiers via Generative
Interpolation [56.620403243640396]
ディープニューラルネットワークは、独立かつ同一に分散されたデータ(すなわち、d)から学習する上で、優れたパフォーマンスを達成する。
しかし、アウト・オブ・ディストリビューション(OoD)データを扱う場合、その性能は著しく低下する。
多様なOoDサンプルを合成するために,複数のドメインから学習した生成モデルを融合するための生成補間法(Generative Interpolation)を開発した。
論文 参考訳(メタデータ) (2023-07-23T03:53:53Z) - Protein Design with Guided Discrete Diffusion [67.06148688398677]
タンパク質設計における一般的なアプローチは、生成モデルと条件付きサンプリングのための識別モデルを組み合わせることである。
離散拡散モデルのためのガイダンス手法であるdiffusioN Optimized Smpling (NOS)を提案する。
NOSは、構造に基づく手法の重要な制限を回避し、シーケンス空間で直接設計を行うことができる。
論文 参考訳(メタデータ) (2023-05-31T16:31:24Z) - Diffusion Probabilistic Model Based Accurate and High-Degree-of-Freedom
Metasurface Inverse Design [14.18549701990854]
メタマテリアルの設計に最適化アルゴリズムを用いた逆設計法が導入された。
メタマテリアルの逆設計にGAN(Generative Adversarial Networks)で表されるディープラーニング手法を適用した。
本稿では拡散確率理論に基づく新しいメタマテリアル逆設計法を提案する。
論文 参考訳(メタデータ) (2023-04-25T08:25:23Z) - A Reparameterized Discrete Diffusion Model for Text Generation [39.0145272152805]
本研究は, 離散拡散確率モデルと自然言語生成への応用に関する研究である。
離散拡散過程からサンプリングの代替的かつ等価な定式化を導出する。
本研究では,既存の拡散モデルに対して,テキスト生成能力を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-02-11T16:26:57Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - EvoVGM: A Deep Variational Generative Model for Evolutionary Parameter
Estimation [0.0]
本研究では,局所生物学的進化パラメータの真後部を共同で近似した深部変分ベイズ生成モデルを提案する。
本研究では,いくつかの進化シナリオと実際のウイルス配列アライメントをシミュレートした合成配列アライメントにおける手法の一貫性と有効性を示す。
論文 参考訳(メタデータ) (2022-05-25T20:08:10Z) - Deep Evolutionary Learning for Molecular Design [1.8047694351309207]
分子設計のためのフラグメントに基づく深層生成モデルと多対象進化計算を融合した深層進化学習プロセスを提案する。
本手法は,(1) 構造空間ではなく, 生成モデルの潜在空間における進化的操作を可能とし, 次世代の分子構造を創出する。
論文 参考訳(メタデータ) (2020-12-28T03:15:46Z) - Evolutionary Variational Optimization of Generative Models [0.0]
分散最適化と進化的アルゴリズムの2つの一般的な最適化アプローチをジェネレーションモデルのための学習アルゴリズムの導出に組み合わせます。
進化的アルゴリズムは変動境界を効果的かつ効率的に最適化できることを示す。
ゼロショット」学習のカテゴリでは、多くのベンチマーク設定で最先端の技術を大幅に改善するために進化的変動アルゴリズムを観察しました。
論文 参考訳(メタデータ) (2020-12-22T19:06:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。