論文の概要: Deep Generative Models with Hard Linear Equality Constraints
- arxiv url: http://arxiv.org/abs/2502.05416v1
- Date: Sat, 08 Feb 2025 02:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:53.131953
- Title: Deep Generative Models with Hard Linear Equality Constraints
- Title(参考訳): 線形不等式制約付き深部生成モデル
- Authors: Ruoyan Li, Dipti Ranjan Sahu, Guy Van den Broeck, Zhe Zeng,
- Abstract要約: 本稿では,DGMにハード制約を強制し,制約に準拠したデータを生成する確率論的健全なアプローチを提案する。
5つの画像データセットと3つの科学的応用に関する様々なDGMモデルアーキテクチャを用いて実験を行った。
ジェネレーションにおける制約の満足度を保証するだけでなく、各ベンチマークの他のメソッドよりも優れた生成性能をアーカイブしています。
- 参考スコア(独自算出の注目度): 24.93865980946986
- License:
- Abstract: While deep generative models~(DGMs) have demonstrated remarkable success in capturing complex data distributions, they consistently fail to learn constraints that encode domain knowledge and thus require constraint integration. Existing solutions to this challenge have primarily relied on heuristic methods and often ignore the underlying data distribution, harming the generative performance. In this work, we propose a probabilistically sound approach for enforcing the hard constraints into DGMs to generate constraint-compliant and realistic data. This is achieved by our proposed gradient estimators that allow the constrained distribution, the data distribution conditioned on constraints, to be differentiably learned. We carry out extensive experiments with various DGM model architectures over five image datasets and three scientific applications in which domain knowledge is governed by linear equality constraints. We validate that the standard DGMs almost surely generate data violating the constraints. Among all the constraint integration strategies, ours not only guarantees the satisfaction of constraints in generation but also archives superior generative performance than the other methods across every benchmark.
- Abstract(参考訳): 深層生成モデル~(DGM)は複雑なデータ分布のキャプチャに顕著な成功を収めている一方で、ドメイン知識を符号化し、したがって制約統合を必要とする制約を一貫して学ばない。
この課題に対する既存の解決策は、主にヒューリスティックな手法に依存しており、しばしば基礎となるデータ分布を無視し、生成的性能を損なう。
本研究では,DGMに制約を強制し,制約に順応し,現実的なデータを生成する確率論的健全な手法を提案する。
これは、制約付き分布、制約に条件づけられたデータ分布を微分的に学習することのできる勾配推定器によって達成される。
我々は5つの画像データセットと3つの科学的応用にまたがる様々なDGMモデルアーキテクチャによる広範な実験を行い、そこではドメイン知識が線形等式制約によって支配される。
我々は,標準DGMが制約に反するデータをほぼ確実に生成していることを検証する。
すべての制約統合戦略の中で、世代内の制約の満足度を保証するだけでなく、各ベンチマークの他の方法よりも優れた生成性能をアーカイブしています。
関連論文リスト
- Guaranteed Generation from Large Language Models [28.157857382660563]
大規模言語モデル(LLM)は、様々なアプリケーションでますます使われている。
本稿では, 自己回帰的提案分布と拒絶サンプリングを組み合わせた, 単純かつ効果的なアプローチであるGUARDを提案する。
これらの実験により、GUARDは予測効率を高く向上した理想分布をほぼ保ちながら、完全な制約満足度を達成することが示された。
論文 参考訳(メタデータ) (2024-10-09T09:39:55Z) - Decision Mamba: A Multi-Grained State Space Model with Self-Evolution Regularization for Offline RL [57.202733701029594]
本稿では,自己進化型政策学習戦略を持つ新しい多粒状態空間モデル(SSM)であるDecision Mambaを提案する。
これらの課題に対処するため、我々は自己進化型政策学習戦略を持つ新しい多粒状態空間モデル(SSM)であるDecision Mambaを提案する。
雑音性軌道上における過度に適合する問題を緩和するために,進行正則化を用いて自己進化政策を提案する。
論文 参考訳(メタデータ) (2024-06-08T10:12:00Z) - How Realistic Is Your Synthetic Data? Constraining Deep Generative
Models for Tabular Data [57.97035325253996]
本稿では,制約付き深部生成モデル(C-DGM)をリアルな合成データモデルに変換する方法について述べる。
C-DGMは、制約によって表現される背景知識を活用して、標準知識より優れている。
論文 参考訳(メタデータ) (2024-02-07T13:22:05Z) - Understanding Deep Generative Models with Generalized Empirical
Likelihoods [3.7978679293562587]
そこで本研究では,最大平均離散性と一般化経験的類似性(Generalized Empirical Likelihood)の技術を組み合わせて,サンプルごとの解釈可能性を維持する分布テストを作成する方法について述べる。
このようなテストでは、精度/リコールの改善などの指標よりも、モード低下やモード不均衡の度合いが最大60%向上していることが判明した。
論文 参考訳(メタデータ) (2023-06-16T11:33:47Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Modeling the Data-Generating Process is Necessary for Out-of-Distribution Generalization [23.302060306322506]
実世界のデータは、しばしば異なる属性に対して複数の分散シフトを持つ。
最先端のDGアルゴリズムは、すべてのシフトに対して一貫してうまく動作しない。
我々は、データ生成プロセスに関する知識を用いて正規化のための正しい独立制約を適応的に識別し、適用するアルゴリズムであるCausally Adaptive Constraint Minimization (CACM)を開発した。
論文 参考訳(メタデータ) (2022-06-15T22:35:06Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - SaDe: Learning Models that Provably Satisfy Domain Constraints [16.46852109556965]
我々は、さまざまな制約を処理できる機械学習アプローチを提案し、これらの制約が目に見えないデータでもモデルによって満たされることを保証する。
機械学習を最大満足度問題とみなし,制約満足度と勾配降下度を組み合わせた新しいアルゴリズムSaDeを用いて解いた。
論文 参考訳(メタデータ) (2021-12-01T15:18:03Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。