論文の概要: Constraining Generative Models for Engineering Design with Negative Data
- arxiv url: http://arxiv.org/abs/2306.15166v2
- Date: Mon, 02 Dec 2024 14:20:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:54:45.384916
- Title: Constraining Generative Models for Engineering Design with Negative Data
- Title(参考訳): 負のデータを用いたエンジニアリング設計のための生成モデルの制約
- Authors: Lyle Regenwetter, Giorgio Giannone, Akash Srivastava, Dan Gutfreund, Faez Ahmed,
- Abstract要約: 本稿では,制約を満たす出力に向けて生成モデルを導くための新しいトレーニング手法を提案する。
我々の負データ生成モデル(NDGM)の定式化は、古典的モデルよりも容易に優れている。
- 参考スコア(独自算出の注目度): 11.432911164773488
- License:
- Abstract: Generative models have recently achieved remarkable success and widespread adoption in society, yet they often struggle to generate realistic and accurate outputs. This challenge extends beyond language and vision into fields like engineering design, where safety-critical engineering standards and non-negotiable physical laws tightly constrain what outputs are considered acceptable. In this work, we introduce a novel training method to guide a generative model toward constraint-satisfying outputs using `negative data' -- examples of what to avoid. Our negative-data generative model (NDGM) formulation easily outperforms classic models, generating 1/6 as many constraint-violating samples using 1/8 as much data in certain problems. It also consistently outperforms other baselines, achieving a balance between constraint satisfaction and distributional similarity that is unsurpassed by any other model in 12 of the 14 problems tested. This widespread superiority is rigorously demonstrated across numerous synthetic tests and real engineering problems, such as ship hull synthesis with hydrodynamic constraints and vehicle design with impact safety constraints. Our benchmarks showcase both the best-in-class performance of our new NDGM formulation and the overall dominance of NDGMs versus classic generative models. We publicly release the code and benchmarks at https://github.com/Lyleregenwetter/NDGMs.
- Abstract(参考訳): 生成モデルは近年、社会において顕著な成功を収め、広く採用されているが、現実的で正確なアウトプットを生み出すのに苦労することが多い。
この課題は、言語やビジョンを超えて、安全クリティカルなエンジニアリング標準や非交渉不可能な物理法則がどのようなアウトプットが受け入れられるかを厳しく制限する、エンジニアリング設計のような分野にも及んでいる。
本研究では,「負のデータ」を用いた制約を満たす出力に対して,生成モデルを誘導する新たなトレーニング手法を提案する。
我々の負データ生成モデル(NDGM)の定式化は古典的モデルよりも容易に優れており、特定の問題において1/8のデータを使用した制約違反サンプルを1/6生成する。
また、他のベースラインよりも一貫して優れており、テストされた14の問題のうち12つのうち、他のモデルでは通過しない制約満足度と分布類似性のバランスを保っている。
この広範な優位性は、多くの合成試験や、流体力学的制約による船体合成、衝突安全制約による車両設計など、実際の工学的な問題で厳格に証明されている。
我々のベンチマークでは、新しいNDGM定式化の最高性能と、NDGMと古典的生成モデルとの総合的な優位性の両方を示している。
コードとベンチマークはhttps://github.com/Lyleregenwetter/NDGMsで公開しています。
関連論文リスト
- Deep Generative Models with Hard Linear Equality Constraints [24.93865980946986]
本稿では,DGMにハード制約を強制し,制約に準拠したデータを生成する確率論的健全なアプローチを提案する。
5つの画像データセットと3つの科学的応用に関する様々なDGMモデルアーキテクチャを用いて実験を行った。
ジェネレーションにおける制約の満足度を保証するだけでなく、各ベンチマークの他のメソッドよりも優れた生成性能をアーカイブしています。
論文 参考訳(メタデータ) (2025-02-08T02:53:32Z) - Fluid: Scaling Autoregressive Text-to-image Generative Models with Continuous Tokens [53.99177152562075]
視覚における自己回帰モデルのスケールアップは、大きな言語モデルほど有益でないことが証明されている。
モデルが離散トークンを使用するか、連続トークンを使用するか、BERTやGPTのようなトランスフォーマーアーキテクチャを用いてランダムまたは固定順序でトークンを生成するか、という2つの重要な要素に焦点を当てる。
その結果,すべてのモデルが検証損失の点で効果的にスケールしているのに対して,評価性能はFID,GenEvalスコア,視覚的品質などによって異なる傾向を呈することがわかった。
論文 参考訳(メタデータ) (2024-10-17T17:59:59Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - SynthForge: Synthesizing High-Quality Face Dataset with Controllable 3D Generative Models [8.004597666699036]
生成モデルの最近の進歩は、フォトリアリスティックデータを制御可能な方法でレンダリングする能力を解き放った。
しかし、下流タスクのトレーニングにそのようなモデルを用いて生成されたデータの使用は、主に3D一貫性のあるアノテーションが欠如しているため、未調査のままである。
本実験は, 生成した合成データのみを用いた最先端モデルに対する競合性能を示し, 下流タスクの解決の可能性を示した。
論文 参考訳(メタデータ) (2024-06-12T03:15:15Z) - How Realistic Is Your Synthetic Data? Constraining Deep Generative
Models for Tabular Data [57.97035325253996]
本稿では,制約付き深部生成モデル(C-DGM)をリアルな合成データモデルに変換する方法について述べる。
C-DGMは、制約によって表現される背景知識を活用して、標準知識より優れている。
論文 参考訳(メタデータ) (2024-02-07T13:22:05Z) - Three-Stage Adjusted Regression Forecasting (TSARF) for Software Defect
Prediction [5.826476252191368]
非均一ポアソン過程 (NHPP) SRGM が最も一般的に用いられるモデルである。
モデル複雑性の増大は、堅牢で計算効率のよいアルゴリズムを識別する上での課題である。
論文 参考訳(メタデータ) (2024-01-31T02:19:35Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - How to train your draGAN: A task oriented solution to imbalanced
classification [15.893327571516016]
本稿では,新しいアーキテクチャであるdraGANを用いた,ユニークでパフォーマンスを重視したデータ生成戦略を提案する。
サンプルは、実際のデータと類似性ではなく、分類モデルの性能を最適化する目的で生成される。
経験的に、draGANの優位性を示すと同時に、いくつかの欠点も強調する。
論文 参考訳(メタデータ) (2022-11-18T07:37:34Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Convex Smoothed Autoencoder-Optimal Transport model [0.0]
我々は,観測データに類似したサンプルを生成することができ,モード崩壊やモード混合のない新しい生成モデルを開発した。
我々のモデルは、最近提案されたオートエンコーダ-最適輸送(AE-OT)モデルにインスパイアされ、AE-OTモデル自体が直面している問題に対処して改善を試みる。
論文 参考訳(メタデータ) (2021-01-14T15:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。