論文の概要: Deep Generative Models with Hard Linear Equality Constraints
- arxiv url: http://arxiv.org/abs/2502.05416v2
- Date: Wed, 12 Feb 2025 08:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:45:28.185004
- Title: Deep Generative Models with Hard Linear Equality Constraints
- Title(参考訳): 線形不等式制約付き深部生成モデル
- Authors: Ruoyan Li, Dipti Ranjan Sahu, Guy Van den Broeck, Zhe Zeng,
- Abstract要約: 本稿では,DGMにハード制約を強制し,制約に準拠したデータを生成する確率論的健全なアプローチを提案する。
5つの画像データセットと3つの科学的応用に関する様々なDGMモデルアーキテクチャを用いて実験を行った。
ジェネレーションにおける制約の満足度を保証するだけでなく、各ベンチマークの他のメソッドよりも優れた生成性能をアーカイブしています。
- 参考スコア(独自算出の注目度): 24.93865980946986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While deep generative models~(DGMs) have demonstrated remarkable success in capturing complex data distributions, they consistently fail to learn constraints that encode domain knowledge and thus require constraint integration. Existing solutions to this challenge have primarily relied on heuristic methods and often ignore the underlying data distribution, harming the generative performance. In this work, we propose a probabilistically sound approach for enforcing the hard constraints into DGMs to generate constraint-compliant and realistic data. This is achieved by our proposed gradient estimators that allow the constrained distribution, the data distribution conditioned on constraints, to be differentiably learned. We carry out extensive experiments with various DGM model architectures over five image datasets and three scientific applications in which domain knowledge is governed by linear equality constraints. We validate that the standard DGMs almost surely generate data violating the constraints. Among all the constraint integration strategies, ours not only guarantees the satisfaction of constraints in generation but also archives superior generative performance than the other methods across every benchmark.
- Abstract(参考訳): 深層生成モデル~(DGM)は複雑なデータ分布のキャプチャに顕著な成功を収めている一方で、ドメイン知識を符号化し、したがって制約統合を必要とする制約を一貫して学ばない。
この課題に対する既存の解決策は、主にヒューリスティックな手法に依存しており、しばしば基礎となるデータ分布を無視し、生成的性能を損なう。
本研究では,DGMに制約を強制し,制約に順応し,現実的なデータを生成する確率論的健全な手法を提案する。
これは、制約付き分布、制約に条件づけられたデータ分布を微分的に学習することのできる勾配推定器によって達成される。
我々は5つの画像データセットと3つの科学的応用にまたがる様々なDGMモデルアーキテクチャによる広範な実験を行い、そこではドメイン知識が線形等式制約によって支配される。
我々は,標準DGMが制約に反するデータをほぼ確実に生成していることを検証する。
すべての制約統合戦略の中で、世代内の制約の満足度を保証するだけでなく、各ベンチマークの他の方法よりも優れた生成性能をアーカイブしています。
関連論文リスト
- Beyond the Generative Learning Trilemma: Generative Model Assessment in Data Scarcity Domains [1.2769300783938085]
深層生成モデル(Deep Generative Models, DGM)は、生成学習のトリレムマを満たす合成データを生成する。
現実のシナリオにおけるDGMの適用性を確保する上で重要な要素である、実用性、堅牢性、プライバシを含むように、トライレンマを拡張します。
本研究は、生成学習トリレンマの範囲を広げ、それを現実世界の要求と整合させ、特定のアプリケーションに適したDGMを選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-04-14T13:15:44Z) - Analytic DAG Constraints for Differentiable DAG Learning [83.93320658222717]
解析関数とDAG制約の関連性を確立するための理論を開発する。
集合 $f(x) = c_0 + sum_i=1inftyc_ixi | forall i > 0, c_i > 0; r = lim_irightarrow inftyc_i/c_i+1 > 0$ から得られる解析関数は、有効な DAG 制約を定式化するために用いられる。
論文 参考訳(メタデータ) (2025-03-24T23:51:35Z) - Constrained Language Generation with Discrete Diffusion Models [61.81569616239755]
本稿では,離散拡散モデルと微分可能最適化を統合し,自然言語に制約を課す新しい手法であるConstrained Discrete Diffusion (CDD)を提案する。
本手法は, 有害な内容の出現防止による毒性軽減, (ii) 形質および配列レベルの語彙的制約, (iii) 特定の性質に順応した新規分子配列生成など, 様々な自然言語制約を満たすために適用可能であることを示す。
論文 参考訳(メタデータ) (2025-03-12T19:48:12Z) - Beyond the convexity assumption: Realistic tabular data generation under quantifier-free real linear constraints [4.956977275061968]
Disjunctive Refinement Layer (DRL) は、データ制限とユーザ定義制約で指定されたバックグラウンド知識のアライメントを強制するために設計されたレイヤである。
DRLは、量子化子のない線形公式のような制約に本質的に準拠するディープラーニングモデルを自動的に作成できる最初の方法である。
論文 参考訳(メタデータ) (2025-02-25T14:20:05Z) - Guaranteed Generation from Large Language Models [28.157857382660563]
大規模言語モデル(LLM)は、様々なアプリケーションでますます使われている。
本稿では, 自己回帰的提案分布と拒絶サンプリングを組み合わせた, 単純かつ効果的なアプローチであるGUARDを提案する。
これらの実験により、GUARDは予測効率を高く向上した理想分布をほぼ保ちながら、完全な制約満足度を達成することが示された。
論文 参考訳(メタデータ) (2024-10-09T09:39:55Z) - Decision Mamba: A Multi-Grained State Space Model with Self-Evolution Regularization for Offline RL [57.202733701029594]
本稿では,自己進化型政策学習戦略を持つ新しい多粒状態空間モデル(SSM)であるDecision Mambaを提案する。
これらの課題に対処するため、我々は自己進化型政策学習戦略を持つ新しい多粒状態空間モデル(SSM)であるDecision Mambaを提案する。
雑音性軌道上における過度に適合する問題を緩和するために,進行正則化を用いて自己進化政策を提案する。
論文 参考訳(メタデータ) (2024-06-08T10:12:00Z) - How Realistic Is Your Synthetic Data? Constraining Deep Generative
Models for Tabular Data [57.97035325253996]
本稿では,制約付き深部生成モデル(C-DGM)をリアルな合成データモデルに変換する方法について述べる。
C-DGMは、制約によって表現される背景知識を活用して、標準知識より優れている。
論文 参考訳(メタデータ) (2024-02-07T13:22:05Z) - Constrained Synthesis with Projected Diffusion Models [47.56192362295252]
本稿では, 制約や物理原理の遵守を満足し, 証明する上で, 生成拡散プロセスへのアプローチを紹介する。
提案手法は, 従来の生成拡散過程を制約分布問題として再キャストし, 制約の順守を保証する。
論文 参考訳(メタデータ) (2024-02-05T22:18:16Z) - Modeling the Data-Generating Process is Necessary for Out-of-Distribution Generalization [23.302060306322506]
実世界のデータは、しばしば異なる属性に対して複数の分散シフトを持つ。
最先端のDGアルゴリズムは、すべてのシフトに対して一貫してうまく動作しない。
我々は、データ生成プロセスに関する知識を用いて正規化のための正しい独立制約を適応的に識別し、適用するアルゴリズムであるCausally Adaptive Constraint Minimization (CACM)を開発した。
論文 参考訳(メタデータ) (2022-06-15T22:35:06Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - SaDe: Learning Models that Provably Satisfy Domain Constraints [16.46852109556965]
我々は、さまざまな制約を処理できる機械学習アプローチを提案し、これらの制約が目に見えないデータでもモデルによって満たされることを保証する。
機械学習を最大満足度問題とみなし,制約満足度と勾配降下度を組み合わせた新しいアルゴリズムSaDeを用いて解いた。
論文 参考訳(メタデータ) (2021-12-01T15:18:03Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。