論文の概要: Robust Guided Diffusion for Offline Black-Box Optimization
- arxiv url: http://arxiv.org/abs/2410.00983v2
- Date: Mon, 30 Dec 2024 20:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-03 17:39:16.453387
- Title: Robust Guided Diffusion for Offline Black-Box Optimization
- Title(参考訳): オフラインブラックボックス最適化のためのロバスト誘導拡散
- Authors: Can Sam Chen, Christopher Beckham, Zixuan Liu, Xue Liu, Christopher Pal,
- Abstract要約: オフラインのブラックボックス最適化は、デザインとその測定プロパティのオフラインデータセットを使用してブラックボックス関数を最大化することを目的としている。
入力から値へのマッピングを学習するフォワードアプローチと、値から値へのマッピングを条件生成のために学習する逆アプローチの2つの主要なアプローチが登場した。
本稿では、訓練されたプロキシからの明示的なガイダンスを利用して、サンプリング制御を強化したプロキシフリー拡散を促進させるテキストプロキシ強化サンプリングを提案する。
- 参考スコア(独自算出の注目度): 8.226357213427447
- License:
- Abstract: Offline black-box optimization aims to maximize a black-box function using an offline dataset of designs and their measured properties. Two main approaches have emerged: the forward approach, which learns a mapping from input to its value, thereby acting as a proxy to guide optimization, and the inverse approach, which learns a mapping from value to input for conditional generation. (a) Although proxy-free~(classifier-free) diffusion shows promise in robustly modeling the inverse mapping, it lacks explicit guidance from proxies, essential for generating high-performance samples beyond the training distribution. Therefore, we propose \textit{proxy-enhanced sampling} which utilizes the explicit guidance from a trained proxy to bolster proxy-free diffusion with enhanced sampling control. (b) Yet, the trained proxy is susceptible to out-of-distribution issues. To address this, we devise the module \textit{diffusion-based proxy refinement}, which seamlessly integrates insights from proxy-free diffusion back into the proxy for refinement. To sum up, we propose \textit{\textbf{R}obust \textbf{G}uided \textbf{D}iffusion for Offline Black-box Optimization}~(\textbf{RGD}), combining the advantages of proxy~(explicit guidance) and proxy-free diffusion~(robustness) for effective conditional generation. RGD achieves state-of-the-art results on various design-bench tasks, underscoring its efficacy. Our code is at https://github.com/GGchen1997/RGD.
- Abstract(参考訳): オフラインのブラックボックス最適化は、デザインとその測定された特性のオフラインデータセットを使用してブラックボックス関数を最大化することを目的としている。
入力から値へのマッピングを学習し、最適化を導くプロキシとして機能するフォワードアプローチと、値から入力へのマッピングを条件生成のために学習する逆アプローチの2つの主要なアプローチが登場した。
(a) プロキシフリー~(分類子フリー)拡散は、逆写像の堅牢なモデリングにおいて有望であるが、訓練分布を超えて高性能なサンプルを生成するために不可欠なプロキシからの明確なガイダンスは欠如している。
そこで、訓練されたプロキシからの明示的なガイダンスを利用して、サンプリング制御を強化したプロキシフリー拡散を促進させる。
(b)ただし、トレーニングされたプロキシは、配布外問題の影響を受けやすい。
これを解決するために,プロキシフリーな拡散からの洞察をプロキシにシームレスに統合し,リファインメントをプロキシに組み込むためのモジュール \textit{diffusion-based proxy refinement} を考案した。
まとめると、オフラインブラックボックス最適化のために \textit{\textbf{R}obust \textbf{G}uided \textbf{D}iffusion を提案する。
RGDは様々なデザインベンチタスクで最先端の結果を達成し、その効果を裏付ける。
私たちのコードはhttps://github.com/GGchen1997/RGDにあります。
関連論文リスト
- Constrained Diffusion with Trust Sampling [11.354281911272864]
我々は、最適化の観点から、トレーニングなし損失誘導拡散を再考する。
トラストサンプリングは、無条件拡散モデルに従って効果的にバランスをとり、損失誘導に固執する。
複雑なタスクや画像の領域や3Dモーション生成の領域で広範囲にわたる実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-11-17T01:34:57Z) - Diffusion-DICE: In-Sample Diffusion Guidance for Offline Reinforcement Learning [43.74071631716718]
DICEに基づく手法は,行動分布から最適な政策分布への変換とみなすことができる。
本稿では拡散モデルを用いて直接この変換を行う新しい手法Diffusion-DICEを提案する。
論文 参考訳(メタデータ) (2024-07-29T15:36:42Z) - Improving GFlowNets for Text-to-Image Diffusion Alignment [48.42367859859971]
報酬を直接最大化するのではなく,比較的高い確率で高解像度画像を生成する手法を探索する。
提案手法は,大規模テキスト・画像拡散モデルと報酬情報とを効果的に一致させることができる。
論文 参考訳(メタデータ) (2024-06-02T06:36:46Z) - Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - A Non-isotropic Probabilistic Take on Proxy-based Deep Metric Learning [49.999268109518255]
プロキシベースのDeep Metric Learningは、クラス代表者(プロキシ)に画像を埋め込むことで学習する
さらに、プロキシベースのDMLは、クラス内部構造を学ぶのに苦労している。
両問題に対処するために,非等方的確率的プロキシベースDMLを導入する。
論文 参考訳(メタデータ) (2022-07-08T09:34:57Z) - ProxyMix: Proxy-based Mixup Training with Label Refinery for Source-Free
Domain Adaptation [73.14508297140652]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
Proxy-based Mixup training with label refinery (ProxyMix)を提案する。
3つの2D画像と1つの3Dポイントクラウドオブジェクト認識ベンチマークの実験は、ProxyMixがソースフリーなUDAタスクに最先端のパフォーマンスをもたらすことを示した。
論文 参考訳(メタデータ) (2022-05-29T03:45:00Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。