論文の概要: DiOpt: Self-supervised Diffusion for Constrained Optimization
- arxiv url: http://arxiv.org/abs/2502.10330v1
- Date: Fri, 14 Feb 2025 17:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 19:47:35.815455
- Title: DiOpt: Self-supervised Diffusion for Constrained Optimization
- Title(参考訳): DiOpt: 制約付き最適化のための自己教師付き拡散
- Authors: Shutong Ding, Yimiao Zhou, Ke Hu, Xi Yao, Junchi Yan, Xiaoying Tang, Ye Shi,
- Abstract要約: DiOptは、反復的な自己学習を通じて、最適に近い解分布を体系的に学習する新しい拡散パラダイムである。
我々の知る限りでは、DiOptは自己教師付き拡散と厳しい制約を満たす最初の成功例である。
- 参考スコア(独自算出の注目度): 46.75288477458697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in diffusion models show promising potential for learning-based optimization by leveraging their multimodal sampling capability to escape local optima. However, existing diffusion-based optimization approaches, often reliant on supervised training, lacks a mechanism to ensure strict constraint satisfaction which is often required in real-world applications. One resulting observation is the distributional misalignment, i.e. the generated solution distribution often exhibits small overlap with the feasible domain. In this paper, we propose DiOpt, a novel diffusion paradigm that systematically learns near-optimal feasible solution distributions through iterative self-training. Our framework introduces several key innovations: a target distribution specifically designed to maximize overlap with the constrained solution manifold; a bootstrapped self-training mechanism that adaptively weights candidate solutions based on the severity of constraint violations and optimality gaps; and a dynamic memory buffer that accelerates convergence by retaining high-quality solutions over training iterations. To our knowledge, DiOpt represents the first successful integration of self-supervised diffusion with hard constraint satisfaction. Evaluations on diverse tasks, including power grid control, motion retargeting, wireless allocation demonstrate its superiority in terms of both optimality and constraint satisfaction.
- Abstract(参考訳): 近年の拡散モデルの進歩は, 局所最適化から逃れるために, マルチモーダルサンプリング機能を活用することで, 学習に基づく最適化の可能性を示している。
しかし、既存の拡散に基づく最適化アプローチは、しばしば教師付きトレーニングに依存し、現実世界のアプリケーションでしばしば必要とされる厳格な制約満足度を保証するメカニズムを欠いている。
結果として生じる観察の1つは、分布的不整合、すなわち、生成した解分布は、しばしば実現可能な領域と小さな重複を示す。
本稿では,反復的な自己学習を通じて最適に近い解分布を体系的に学習する,新しい拡散パラダイムであるDiOptを提案する。
本フレームワークでは,制約付き解多様体との重なりを最大化するために設計されたターゲット分布,制約違反の深刻度と最適性ギャップに基づいて候補解を適応的に重み付けする自己学習機構,高品質な解をトレーニング繰り返しよりも保持することで収束を加速する動的メモリバッファなど,いくつかの重要なイノベーションを紹介している。
我々の知る限りでは、DiOptは自己教師付き拡散と厳しい制約を満たす最初の成功例である。
電力グリッド制御,移動再ターゲティング,無線アロケーションなどの多様なタスクの評価は,最適性と制約満足度の両方の観点から,その優位性を示す。
関連論文リスト
- Preference-Guided Diffusion for Multi-Objective Offline Optimization [64.08326521234228]
オフライン多目的最適化のための優先誘導拡散モデルを提案する。
我々の指導は、ある設計が他の設計を支配する確率を予測するために訓練された選好モデルである。
本結果は,多種多様な高品質な解を生成する上での分類器誘導拡散モデルの有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-21T16:49:38Z) - Test-time Alignment of Diffusion Models without Reward Over-optimization [8.981605934618349]
拡散モデルは生成的タスクにおいて優れているが、特定の目的とそれらを整合させることは依然として困難である。
そこで本研究では,SMC(Sequential Monte Carlo)をベースとした学習自由なテスト時間手法を提案する。
単一逆最適化、多目的シナリオ、オンラインブラックボックス最適化において、その効果を実証する。
論文 参考訳(メタデータ) (2025-01-10T09:10:30Z) - Improving Pareto Set Learning for Expensive Multi-objective Optimization via Stein Variational Hypernetworks [4.124390946636935]
重大多目的最適化問題(EMOP)は、目的関数の評価にコストがかかる実世界のシナリオでは一般的である。
本稿では,Stein Variational Gradient Descent (SVGD) を Hypernetworks に統合した SVH-PSL という新しい手法を提案する。
本手法は, 解空間を滑らかにするために粒子を集合的に移動させることにより, フラグメント化サロゲートモデルと擬似局所最適化の問題に対処する。
論文 参考訳(メタデータ) (2024-12-23T06:05:45Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - HUWSOD: Holistic Self-training for Unified Weakly Supervised Object Detection [66.42229859018775]
我々は,HUWSOD(HuWSOD)と呼ばれる,統一・高容量弱教師付きオブジェクト検出(WSOD)ネットワークを導入する。
HUWSODには、自己管理された提案生成器と、従来のオブジェクト提案を置き換えるために、マルチレートで再構成されたピラミッドを備えたオートエンコーダ提案生成器が組み込まれている。
提案手法は,よく設計されたオフラインオブジェクト提案と大きく異なるが,WSOD訓練には有効であることを示す。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Quantization Avoids Saddle Points in Distributed Optimization [1.579622195923387]
分散非最適化は、多くの分散システムの重要な機能を支える。
本研究の目的は,サドル点収束を2次定常点収束に効果的に回避できることを示すことである。
簡単に調整可能な量子化により、ユーザの制御により、通信オーバーヘッドを積極的に削減できる。
論文 参考訳(メタデータ) (2024-03-15T15:58:20Z) - Diffusion Models as Constrained Samplers for Optimization with Unknown Constraints [42.47298301874283]
拡散モデルを用いてデータ多様体内で最適化を行う。
目的関数の微分可能性に応じて,2つの異なるサンプリング手法を提案する。
提案手法は,従来の最先端のベースラインよりも優れた,あるいは同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-28T03:09:12Z) - DiffuSolve: Diffusion-based Solver for Non-convex Trajectory Optimization [9.28162057044835]
最適軌道局所は非線形および高次元力学系において計算コストが高い。
本稿では,非次元オプティマ問題に対するDiffuに基づく一般モデルを提案する。
また,新たな制約付き拡散モデルであるDiff+を提案する。
論文 参考訳(メタデータ) (2024-02-22T03:52:17Z) - Evolutionary Alternating Direction Method of Multipliers for Constrained
Multi-Objective Optimization with Unknown Constraints [17.392113376816788]
制約付き多目的最適化問題(CMOP)は、科学、工学、設計における現実世界の応用に及んでいる。
本稿では,目的関数と制約関数を分離する乗算器の交互方向法の原理に着想を得た,この種の進化的最適化フレームワークについて紹介する。
本研究の枠組みは,元の問題を2つのサブプロブレムの付加形式に再構成することで,未知の制約でCMOPに対処する。
論文 参考訳(メタデータ) (2024-01-02T00:38:20Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Online Optimization and Ambiguity-based Learning of Distributionally Uncertain Dynamic Systems [1.6709415233613623]
本稿では,分散的に不確実な力学系のクラスを対象とする最適化問題 (P) に対して,データ駆動型オンラインソリューションを構築するための新しい手法を提案する。
導入されたフレームワークは、パラメータ化された制御依存のあいまいさセットを通じて、分散システムの不確実性の同時学習を可能にする。
また、Nesterovの高速化段階アルゴリズムのオンライン版を導入し、その性能を分析して、分散性理論を用いてこの問題のクラスを解く。
論文 参考訳(メタデータ) (2021-02-18T01:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。