論文の概要: DiOpt: Self-supervised Diffusion for Constrained Optimization
- arxiv url: http://arxiv.org/abs/2502.10330v1
- Date: Fri, 14 Feb 2025 17:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:44:54.478563
- Title: DiOpt: Self-supervised Diffusion for Constrained Optimization
- Title(参考訳): DiOpt: 制約付き最適化のための自己教師付き拡散
- Authors: Shutong Ding, Yimiao Zhou, Ke Hu, Xi Yao, Junchi Yan, Xiaoying Tang, Ye Shi,
- Abstract要約: DiOptは、反復的な自己学習を通じて、最適に近い解分布を体系的に学習する新しい拡散パラダイムである。
我々の知る限りでは、DiOptは自己教師付き拡散と厳しい制約を満たす最初の成功例である。
- 参考スコア(独自算出の注目度): 46.75288477458697
- License:
- Abstract: Recent advances in diffusion models show promising potential for learning-based optimization by leveraging their multimodal sampling capability to escape local optima. However, existing diffusion-based optimization approaches, often reliant on supervised training, lacks a mechanism to ensure strict constraint satisfaction which is often required in real-world applications. One resulting observation is the distributional misalignment, i.e. the generated solution distribution often exhibits small overlap with the feasible domain. In this paper, we propose DiOpt, a novel diffusion paradigm that systematically learns near-optimal feasible solution distributions through iterative self-training. Our framework introduces several key innovations: a target distribution specifically designed to maximize overlap with the constrained solution manifold; a bootstrapped self-training mechanism that adaptively weights candidate solutions based on the severity of constraint violations and optimality gaps; and a dynamic memory buffer that accelerates convergence by retaining high-quality solutions over training iterations. To our knowledge, DiOpt represents the first successful integration of self-supervised diffusion with hard constraint satisfaction. Evaluations on diverse tasks, including power grid control, motion retargeting, wireless allocation demonstrate its superiority in terms of both optimality and constraint satisfaction.
- Abstract(参考訳): 近年の拡散モデルの進歩は, 局所最適化から逃れるために, マルチモーダルサンプリング機能を活用することで, 学習に基づく最適化の可能性を示している。
しかし、既存の拡散に基づく最適化アプローチは、しばしば教師付きトレーニングに依存し、現実世界のアプリケーションでしばしば必要とされる厳格な制約満足度を保証するメカニズムを欠いている。
結果として生じる観察の1つは、分布的不整合、すなわち、生成した解分布は、しばしば実現可能な領域と小さな重複を示す。
本稿では,反復的な自己学習を通じて最適に近い解分布を体系的に学習する,新しい拡散パラダイムであるDiOptを提案する。
本フレームワークでは,制約付き解多様体との重なりを最大化するために設計されたターゲット分布,制約違反の深刻度と最適性ギャップに基づいて候補解を適応的に重み付けする自己学習機構,高品質な解をトレーニング繰り返しよりも保持することで収束を加速する動的メモリバッファなど,いくつかの重要なイノベーションを紹介している。
我々の知る限りでは、DiOptは自己教師付き拡散と厳しい制約を満たす最初の成功例である。
電力グリッド制御,移動再ターゲティング,無線アロケーションなどの多様なタスクの評価は,最適性と制約満足度の両方の観点から,その優位性を示す。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - HUWSOD: Holistic Self-training for Unified Weakly Supervised Object Detection [66.42229859018775]
我々は,HUWSOD(HuWSOD)と呼ばれる,統一・高容量弱教師付きオブジェクト検出(WSOD)ネットワークを導入する。
HUWSODには、自己管理された提案生成器と、従来のオブジェクト提案を置き換えるために、マルチレートで再構成されたピラミッドを備えたオートエンコーダ提案生成器が組み込まれている。
提案手法は,よく設計されたオフラインオブジェクト提案と大きく異なるが,WSOD訓練には有効であることを示す。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Constraint-Aware Diffusion Models for Trajectory Optimization [9.28162057044835]
本稿では,軌道最適化のための制約対応拡散モデルを提案する。
拡散サンプルの制約違反を最小限に抑える訓練用ハイブリッド損失関数を提案する。
本モデルでは, テーブルトップ操作と2台のリーチ回避問題について検討した。
論文 参考訳(メタデータ) (2024-06-03T04:53:20Z) - Quantization Avoids Saddle Points in Distributed Optimization [1.579622195923387]
分散非最適化は、多くの分散システムの重要な機能を支える。
本研究の目的は,サドル点収束を2次定常点収束に効果的に回避できることを示すことである。
簡単に調整可能な量子化により、ユーザの制御により、通信オーバーヘッドを積極的に削減できる。
論文 参考訳(メタデータ) (2024-03-15T15:58:20Z) - Global-Local Regularization Via Distributional Robustness [26.983769514262736]
ディープニューラルネットワークは、しばしば敵の例や分布シフトに弱い。
最近のアプローチでは、分散ロバストネス最適化(DRO)を利用して、最も難しい分布を見つける。
本稿では,Wasserstein をベースとした DRO フレームワークの後継として,新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T15:36:12Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Online Optimization and Ambiguity-based Learning of Distributionally Uncertain Dynamic Systems [1.6709415233613623]
本稿では,分散的に不確実な力学系のクラスを対象とする最適化問題 (P) に対して,データ駆動型オンラインソリューションを構築するための新しい手法を提案する。
導入されたフレームワークは、パラメータ化された制御依存のあいまいさセットを通じて、分散システムの不確実性の同時学習を可能にする。
また、Nesterovの高速化段階アルゴリズムのオンライン版を導入し、その性能を分析して、分散性理論を用いてこの問題のクラスを解く。
論文 参考訳(メタデータ) (2021-02-18T01:49:06Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。