論文の概要: A Gradient Guided Diffusion Framework for Chance Constrained Programming
- arxiv url: http://arxiv.org/abs/2510.12238v1
- Date: Tue, 14 Oct 2025 07:40:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.229355
- Title: A Gradient Guided Diffusion Framework for Chance Constrained Programming
- Title(参考訳): 環境制約付きプログラミングのためのグラディエントガイド付き拡散フレームワーク
- Authors: Boyang Zhang, Zhiguo Wang, Ya-Feng Liu,
- Abstract要約: CCP(Chance constrained Diffusion)は、不確実性の下で最適化問題に対処する強力なフレームワークである。
本稿では,3つの重要なイノベーションを通じて問題に取り組む新しいGuidedOptベースのフレームワークを紹介する。
- 参考スコア(独自算出の注目度): 38.33757282877801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chance constrained programming (CCP) is a powerful framework for addressing optimization problems under uncertainty. In this paper, we introduce a novel Gradient-Guided Diffusion-based Optimization framework, termed GGDOpt, which tackles CCP through three key innovations. First, GGDOpt accommodates a broad class of CCP problems without requiring the knowledge of the exact distribution of uncertainty-relying solely on a set of samples. Second, to address the nonconvexity of the chance constraints, it reformulates the CCP as a sampling problem over the product of two distributions: an unknown data distribution supported on a nonconvex set and a Boltzmann distribution defined by the objective function, which fully leverages both first- and second-order gradient information. Third, GGDOpt has theoretical convergence guarantees and provides practical error bounds under mild assumptions. By progressively injecting noise during the forward diffusion process to convexify the nonconvex feasible region, GGDOpt enables guided reverse sampling to generate asymptotically optimal solutions. Experimental results on synthetic datasets and a waveform design task in wireless communications demonstrate that GGDOpt outperforms existing methods in both solution quality and stability with nearly 80% overhead reduction.
- Abstract(参考訳): CCP(Chance constrained Programming)は、不確実性の下で最適化問題に対処する強力なフレームワークである。
本稿では、3つの重要な革新を通じてCCPに取り組むGGDOptと呼ばれる新しいグラディエントガイド型拡散最適化フレームワークを紹介する。
第一に、GGDOptは一連のサンプルのみに不確実性推論の正確な分布の知識を必要とせず、幅広いCCP問題に対応している。
第二に、確率制約の非凸性に対処するため、CCPを2つの分布の積上のサンプリング問題として再定義する:非凸集合上でサポートされた未知のデータ分布と、目的関数によって定義されたボルツマン分布であり、1階勾配情報と2階勾配情報の両方を完全に活用する。
第3に、GGDOptは理論収束保証を持ち、穏やかな仮定の下で実用的な誤差境界を提供する。
前方拡散過程中にノイズを徐々に注入して非凸領域を凸化することにより、GGDOptはガイドされた逆サンプリングを可能にし、漸近的に最適な解を生成する。
無線通信における合成データセットと波形設計タスクの実験結果から、GGDOptは既存の手法よりも80%近いオーバーヘッド削減で、ソリューションの品質と安定性の両方において優れていることが示された。
関連論文リスト
- Statistical Inference for Conditional Group Distributionally Robust Optimization with Cross-Entropy Loss [9.054486124506521]
本研究では,複数のソースドメインからラベル付きデータを抽出し,対象ドメインからラベル付きデータのみを抽出するマルチソース非教師付きドメイン適応について検討する。
本稿では,条件条件分布の凸結合に対する最悪のクロスエントロピー損失を最小限に抑え,分類器を学習する新しい条件条件最適化(CG-DRO)フレームワークを提案する。
理論的ブリッジとして機能する2つのサロゲート極小最適化問題を構築することにより、推定器の高速な統計的収束率を確立する。
論文 参考訳(メタデータ) (2025-07-14T04:21:23Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - Guided Diffusion Sampling on Function Spaces with Applications to PDEs [111.87523128566781]
PDEに基づく逆問題における条件付きサンプリングのための一般的なフレームワークを提案する。
これは、関数空間拡散モデルと条件付けのためのプラグアンドプレイガイダンスによって達成される。
提案手法は,最先端の固定解像度拡散ベースラインに対して平均32%の精度向上を実現する。
論文 参考訳(メタデータ) (2025-05-22T17:58:12Z) - Rectified Diffusion Guidance for Conditional Generation [94.83538269086613]
CFGの背後にある理論を再検討し、不適切な組合せ係数(textiti.e.)が生成分布を期待的にシフトさせることを厳密に確認する。
提案手法は, 強みを考慮すれば, textbftextitform ソリューションが有効であることを示す。
実世界のデータに関する実証的な証拠は、我々の設計と既存の最先端拡散モデルとの整合性を実証している。
論文 参考訳(メタデータ) (2024-10-24T13:41:32Z) - Uncertainty-Aware Relational Graph Neural Network for Few-Shot Knowledge Graph Completion [12.887073684904147]
FKGC (Few-shot Knowledge Graph completion) は、少数の参照エンティティ対を考えると、関係の見えない事実を問うことを目的としている。
既存のFKGCの作業はそのような不確実性を無視しており、ノイズのある限られた参照サンプルの影響を受けやすい。
制約データをよりよく理解するために、不確実性をモデル化するための新しい不確実性対応数ショットKG補完フレームワーク(UFKGC)を提案する。
論文 参考訳(メタデータ) (2024-03-07T14:23:25Z) - DF2: Distribution-Free Decision-Focused Learning [30.288876294435294]
決定中心学習(DFL)は,予測列最適化問題に対する強力なアプローチとして登場した。
DFLはモデル誤差、サンプル平均近似誤差、近似誤差の3つのボトルネックに直面している。
本稿では,この3つのボトルネックを緩和する決定自由学習手法であるDF2を提案する。
論文 参考訳(メタデータ) (2023-08-11T00:44:46Z) - Distributed Distributionally Robust Optimization with Non-Convex
Objectives [24.64654924173679]
Asynchronous Single-looP alternatIve gRadient projEction という非同期分散アルゴリズムを提案する。
新しい不確実性集合、すなわち制約付きD-ノルムの不確実性集合は、以前の分布を利用し、強靭性の度合いを柔軟に制御するために開発される。
実世界のデータセットに関する実証研究は、提案手法が高速収束を達成できるだけでなく、悪意のある攻撃だけでなく、データに対する堅牢性も維持できることを示した。
論文 参考訳(メタデータ) (2022-10-14T07:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。