論文の概要: MO-PaDGAN: Reparameterizing Engineering Designs for Augmented
Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2009.07110v3
- Date: Tue, 28 Sep 2021 02:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:48:30.131161
- Title: MO-PaDGAN: Reparameterizing Engineering Designs for Augmented
Multi-objective Optimization
- Title(参考訳): MO-PaDGAN:多目的最適化のための再パラメータ化工学設計
- Authors: Wei Chen and Faez Ahmed
- Abstract要約: 多目的最適化は多くのエンジニアリング設計問題を解決する上で鍵となる。
深い生成モデルはコンパクトなデザイン表現を学ぶことができる。
Mo-PaDGANは、生成的対向ネットワークに決定的ポイントプロセスに基づく損失関数を追加する。
- 参考スコア(独自算出の注目度): 13.866787416457454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-objective optimization is key to solving many Engineering Design
problems, where design parameters are optimized for several performance
indicators. However, optimization results are highly dependent on how the
designs are parameterized. Researchers have shown that deep generative models
can learn compact design representations, providing a new way of parameterizing
designs to achieve faster convergence and improved optimization performance.
Despite their success in capturing complex distributions, existing generative
models face three challenges when used for design problems: 1) generated
designs have limited design space coverage, 2) the generator ignores design
performance, and 3)~the new parameterization is unable to represent designs
beyond training data. To address these challenges, we propose MO-PaDGAN, which
adds a Determinantal Point Processes based loss function to the generative
adversarial network to simultaneously model diversity and (multi-variate)
performance. MO-PaDGAN can thus improve the performances and coverage of
generated designs, and even generate designs with performances exceeding those
from training data. When using MO-PaDGAN as a new parameterization in
multi-objective optimization, we can discover much better Pareto fronts even
though the training data do not cover those Pareto fronts. In a real-world
multi-objective airfoil design example, we demonstrate that MO-PaDGAN achieves,
on average, an over 180\% improvement in the hypervolume indicator when
compared to the vanilla GAN or other state-of-the-art parameterization methods.
- Abstract(参考訳): 多目的最適化は、設計パラメータを複数の性能指標に最適化する、多くのエンジニアリングデザイン問題を解決する鍵となる。
しかしながら、最適化の結果は設計のパラメータ化方法に大きく依存する。
研究者は、深層生成モデルがコンパクトな設計表現を学習できることを示し、より高速な収束と最適化性能を改善するために設計をパラメータ化する新しい方法を提供する。
複雑な分布を捉えることに成功したにもかかわらず、既存の生成モデルは設計問題に使用する際に3つの課題に直面している。
1) 生成した設計は設計範囲が限られている。
2) ジェネレータは設計性能を無視し, 3) 新たなパラメータ化はトレーニングデータ以外の設計を表現できない。
これらの課題に対処するため,MO-PaDGANを提案する。このMO-PaDGANは,多変量および多変量性能を同時にモデル化するための生成逆数ネットワークに決定点プロセスに基づく損失関数を追加する。
これによりMO-PaDGANは、生成された設計の性能とカバレッジを改善し、トレーニングデータよりもパフォーマンスの高い設計を生成できる。
多目的最適化における新しいパラメータ化としてMO-PaDGANを使用する場合、トレーニングデータがこれらのParetoフロントをカバーしていない場合でも、より優れたParetoフロントを見つけることができる。
実世界の多目的翼設計の例では、MO-PaDGANは、バニラGANや他の最先端パラメータ化手法と比較して、平均して180 %以上の超体積指標の改善を実現している。
関連論文リスト
- Diffusion Model for Data-Driven Black-Box Optimization [54.25693582870226]
我々は、強力な生成AI技術である拡散モデルに注目し、ブラックボックス最適化の可能性について検討する。
本研究では,1)実数値報酬関数のノイズ測定と,2)対比較に基づく人間の嗜好の2種類のラベルについて検討する。
提案手法は,設計最適化問題を条件付きサンプリング問題に再構成し,拡散モデルのパワーを有効活用する。
論文 参考訳(メタデータ) (2024-03-20T00:41:12Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Aligning Optimization Trajectories with Diffusion Models for Constrained
Design Generation [17.164961143132473]
本稿では,拡散モデルのサンプリング軌跡と従来の物理法に基づく最適化軌跡との整合性を示す学習フレームワークを提案する。
提案手法では,高コストプリプロセッシングや外部サロゲートモデル,ラベル付きデータの追加を必要とせずに,実用的で高性能な設計を2段階で生成することができる。
この結果から, TAは分布内構成における最先端の深層生成モデルより優れ, 推論計算コストを半減することがわかった。
論文 参考訳(メタデータ) (2023-05-29T09:16:07Z) - Parameter-Efficient Fine-Tuning Design Spaces [63.954953653386106]
パラメータ効率の良いファインチューニング設計パラダイムを提案し、異なる実験環境に適用可能な設計パターンを探索する。
実験により,これらの手法は,異なるバックボーンモデルと自然言語処理における異なるタスク間のパラメータ効率の高い微調整戦略を連続的に,かつ著しく上回ることを示した。
論文 参考訳(メタデータ) (2023-01-04T21:00:18Z) - A Pareto-optimal compositional energy-based model for sampling and
optimization of protein sequences [55.25331349436895]
深層生成モデルは、生命科学における逆問題に対する一般的な機械学習ベースのアプローチとして登場した。
これらの問題は、データ分布の学習に加えて、興味のある複数の特性を満たす新しい設計をサンプリングする必要があることが多い。
論文 参考訳(メタデータ) (2022-10-19T19:04:45Z) - Design Target Achievement Index: A Differentiable Metric to Enhance Deep
Generative Models in Multi-Objective Inverse Design [4.091593765662773]
設計目標達成指標(Design Target Achievement Index, DTAI)は、設計者が指定した最小パフォーマンス目標を達成するための設計能力を評価する、微分可能で調整可能な指標である。
DTAIをPaDGAN(Performance-Augmented Diverse GAN)に適用し,ベースラインのDeep Generative Modelよりも優れた生成性能を示す。
論文 参考訳(メタデータ) (2022-05-06T04:14:34Z) - Investigating Positive and Negative Qualities of Human-in-the-Loop
Optimization for Designing Interaction Techniques [55.492211642128446]
設計者は、与えられた目的の集合を最大化する設計パラメータの組み合わせを見つけるよう求められる設計最適化タスクに苦労すると言われている。
モデルベースの計算設計アルゴリズムは、設計中に設計例を生成することでデザイナを支援する。
一方、補助のためのブラックボックスメソッドは、あらゆる設計問題に対処できる。
論文 参考訳(メタデータ) (2022-04-15T20:40:43Z) - MO-PaDGAN: Generating Diverse Designs with Multivariate Performance
Enhancement [13.866787416457454]
深部生成モデルは自動設計合成と設計空間探索に有用であることが証明されている。
1) 生成した設計には多様性が欠けていること,2) 生成した設計のすべての性能指標を明示的に改善することが困難であること,3) 既存のモデルは一般に高性能な新規設計を生成できないこと,の3つの課題に直面する。
多様性と性能の確率的モデリングのための新しい決定点プロセスに基づく損失関数を含むMO-PaDGANを提案する。
論文 参考訳(メタデータ) (2020-07-07T21:57:29Z) - PaDGAN: A Generative Adversarial Network for Performance Augmented
Diverse Designs [13.866787416457454]
本研究では, 優れた設計空間を網羅した新規な高品質な設計を創出可能な, 高性能拡張多言語生成ネットワーク(Performance Augmented Diverse Generative Adversarial Network) または PaDGAN を開発した。
バニラ生成適応ネットワークと比較して、平均的な平均品質スコアが28%高く、多様性が大きく、モード崩壊の問題がないサンプルを生成する。
論文 参考訳(メタデータ) (2020-02-26T04:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。