論文の概要: GenCO: Generating Diverse Solutions to Design Problems with
Combinatorial Nature
- arxiv url: http://arxiv.org/abs/2310.02442v1
- Date: Tue, 3 Oct 2023 21:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 17:32:50.028411
- Title: GenCO: Generating Diverse Solutions to Design Problems with
Combinatorial Nature
- Title(参考訳): GenCO: コンビナティブな性質を持つ設計問題に対するさまざまなソリューションの生成
- Authors: Aaron Ferber, Arman Zharmagambetov, Taoan Huang, Bistra Dilkina,
Yuandong Tian
- Abstract要約: 組込み解法と統合された深層生成モデルのエンドツーエンドトレーニングを行う新しいフレームワークを提案する。
構造的には従来の生成モデルに似ているが、GenCOは最終オブジェクトではなく最適化問題のインスタンスを生成することに重点を置いている。
- 参考スコア(独自算出の注目度): 43.79851879855014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating diverse objects (e.g., images) using generative models (such as
GAN or VAE) has achieved impressive results in the recent years, to help solve
many design problems that are traditionally done by humans. Going beyond image
generation, we aim to find solutions to more general design problems, in which
both the diversity of the design and conformity of constraints are important.
Such a setting has applications in computer graphics, animation, industrial
design, material science, etc, in which we may want the output of the generator
to follow discrete/combinatorial constraints and penalize any deviation, which
is non-trivial with existing generative models and optimization solvers. To
address this, we propose GenCO, a novel framework that conducts end-to-end
training of deep generative models integrated with embedded combinatorial
solvers, aiming to uncover high-quality solutions aligned with nonlinear
objectives. While structurally akin to conventional generative models, GenCO
diverges in its role - it focuses on generating instances of combinatorial
optimization problems rather than final objects (e.g., images). This shift
allows finer control over the generated outputs, enabling assessments of their
feasibility and introducing an additional combinatorial loss component. We
demonstrate the effectiveness of our approach on a variety of generative tasks
characterized by combinatorial intricacies, including game level generation and
map creation for path planning, consistently demonstrating its capability to
yield diverse, high-quality solutions that reliably adhere to user-specified
combinatorial properties.
- Abstract(参考訳): 生成モデル(GANやVAEなど)を用いた多様なオブジェクト(画像など)の生成は近年、人間によって伝統的に行われている多くの設計問題の解決に役立っている。
画像生成以外にも,設計の多様性と制約の適合性の両方が重要である,より一般的な設計問題の解決策を見出すことを目指している。
このような設定は、コンピュータグラフィックス、アニメーション、インダストリアルデザイン、マテリアルサイエンスなどの応用があり、ジェネレータの出力は離散的/結合的制約に従い、任意の偏差をペナライズすることを望んでおり、これは既存の生成モデルや最適化解法とは非自明である。
そこで我々は, 組込み組合せ解法と統合された深層生成モデルのエンドツーエンドトレーニングを行う新しいフレームワークであるGenCOを提案し, 非線形目的に整合した高品質な解を明らかにすることを目的とした。
構造的には従来の生成モデルに似ているが、GenCOはその役割を多様化し、最終オブジェクト(画像など)ではなく組合せ最適化問題のインスタンスを生成することに重点を置いている。
このシフトにより、生成された出力をより細かく制御でき、その実現可能性を評価し、追加の組合せ損失成分を導入することができる。
提案手法は,ゲームレベルの生成や経路計画のためのマップ作成など,組み合わせの複雑さを特徴とする多種多様な生成課題に対する効果を実証し,ユーザ指定の組合せ特性に確実に準拠する多種多様な高品質なソリューションを実現する能力を一貫して示す。
関連論文リスト
- FissionVAE: Federated Non-IID Image Generation with Latent Space and Decoder Decomposition [9.059664504170287]
フェデレートされた学習により、分散化されたクライアントは、すべてのトレーニングデータをローカルに保ちながら、共有モデルを共同で学習することができる。
本稿では、潜在空間を分解し、個々のクライアントグループに適したデコーダブランチを構成する新しいアプローチFissionVAEを紹介する。
アプローチを評価するために,MNISTとFashionMNISTを組み合わせた2つの複合データセットを作成した。
論文 参考訳(メタデータ) (2024-08-30T08:22:30Z) - Random Aggregate Beamforming for Over-the-Air Federated Learning in Large-Scale Networks [66.18765335695414]
本稿では,アグリゲーションエラーを最小限に抑え,選択したデバイス数を最大化する目的で,共同装置の選択とアグリゲーションビームフォーミング設計について検討する。
コスト効率のよい方法でこの問題に取り組むために,ランダムな集合ビームフォーミング方式を提案する。
また, 得られた集計誤差と, デバイス数が大きい場合に選択したデバイス数についても解析を行った。
論文 参考訳(メタデータ) (2024-02-20T23:59:45Z) - Generative Inverse Design of Metamaterials with Functional Responses by Interpretable Learning [3.931881794708454]
ランダムフォレストに基づく解釈可能生成逆設計(RIGID)を提案する。
RIGIDは、オンデマンド機能挙動を持つメタマテリアル設計を高速に生成するための単発逆設計法である。
RIGIDの音響的・光学的メタマテリアル設計問題に対する評価を行った。
論文 参考訳(メタデータ) (2023-12-08T04:24:03Z) - Deep Model Reassembly [60.6531819328247]
我々はDeep Model Reassembly(DeRy)と呼ばれる新しい知識伝達タスクを探索する。
DeRyの目標は、まず各モデルを固有のビルディングブロックに分割し、それから派生したブロックを選択的に再組み立てて、カスタマイズされたネットワークを生成することである。
ImageNetでは、最高の再組み立てモデルは微調整なしで78.6%のトップ1の精度を実現している。
論文 参考訳(メタデータ) (2022-10-24T10:16:13Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - Design Target Achievement Index: A Differentiable Metric to Enhance Deep
Generative Models in Multi-Objective Inverse Design [4.091593765662773]
設計目標達成指標(Design Target Achievement Index, DTAI)は、設計者が指定した最小パフォーマンス目標を達成するための設計能力を評価する、微分可能で調整可能な指標である。
DTAIをPaDGAN(Performance-Augmented Diverse GAN)に適用し,ベースラインのDeep Generative Modelよりも優れた生成性能を示す。
論文 参考訳(メタデータ) (2022-05-06T04:14:34Z) - Controllable and Compositional Generation with Latent-Space Energy-Based
Models [60.87740144816278]
制御可能な生成は、現実世界のアプリケーションで深層生成モデルの採用を成功させる上で重要な要件の1つである。
本研究では, エネルギーモデル(EBM)を用いて, 属性の集合上での合成生成を扱う。
エネルギー関数を論理演算子と合成することにより、分解能1024x1024のフォトリアリスティック画像を生成する際に、このような構成性を実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2021-10-21T03:31:45Z) - Energy-Based Models for Code Generation under Compilability Constraints [2.9176992922046923]
本研究では,コンパイル可能なコードを制約満足度として生成する学習の課題を提起する。
本稿では,コンパイル可能なシーケンスのみを生成する制約を課した,事前学習された生成モデルを表すEnergy-Based Model(EBM)を定義する。
次に,KL-Adaptive Distributional Policy Gradientアルゴリズムを用いて,EMMを近似した生成モデルを訓練する。
論文 参考訳(メタデータ) (2021-06-09T11:06:32Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Generalized Adversarially Learned Inference [42.40405470084505]
我々は、画像生成器とエンコーダを逆向きにトレーニングし、画像と潜時ベクトル対の2つの結合分布を一致させることにより、GAN内の潜時変数を推定する方法を開発した。
我々は、望まれるソリューションに関する事前または学習知識に基づいて、再構築、自己監督、その他の形式の監督に関する複数のフィードバック層を組み込んだ。
論文 参考訳(メタデータ) (2020-06-15T02:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。