論文の概要: On the Learnability of Offline Model-Based Optimization: A Ranking Perspective
- arxiv url: http://arxiv.org/abs/2603.04000v1
- Date: Wed, 04 Mar 2026 12:45:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.304026
- Title: On the Learnability of Offline Model-Based Optimization: A Ranking Perspective
- Title(参考訳): オフラインモデルに基づく最適化の学習可能性について:ランク付けの視点から
- Authors: Shen-Huan Lyu, Rong-Xi Tan, Ke Xue, Yi-Xiao He, Yu Huang, Qingfu Zhang, Chao Qian,
- Abstract要約: オフラインモデルベース最適化(MBO)は、過去の評価の固定データセットのみを使用して、高性能な設計を発見することを目指している。
既存のほとんどの手法は回帰を通じて代理モデルを学ぶことに依存しており、良い予測精度が良い最適化性能をもたらすと暗黙的に仮定している。
オフライン最適化は基本的に、正確な値予測よりも高品質な設計をランク付けする問題であると主張する。
- 参考スコア(独自算出の注目度): 28.667834180549686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Offline model-based optimization (MBO) seeks to discover high-performing designs using only a fixed dataset of past evaluations. Most existing methods rely on learning a surrogate model via regression and implicitly assume that good predictive accuracy leads to good optimization performance. In this work, we challenge this assumption and study offline MBO from a learnability perspective. We argue that offline optimization is fundamentally a problem of ranking high-quality designs rather than accurate value prediction. Specifically, we introduce an optimization-oriented risk based on ranking between near-optimal and suboptimal designs, and develop a unified theoretical framework that connects surrogate learning to final optimization. We prove the theoretical advantages of ranking over regression, and identify distributional mismatch between the training data and near-optimal designs as the dominant error. Inspired by this, we design a distribution-aware ranking method to reduce this mismatch. Empirical results across various tasks show that our approach outperforms twenty existing methods, validating our theoretical findings. Additionally, both theoretical and empirical results reveal intrinsic limitations in offline MBO, showing a regime in which no offline method can avoid over-optimistic extrapolation.
- Abstract(参考訳): オフラインモデルベース最適化(MBO)は、過去の評価の固定データセットのみを用いて高性能な設計を発見することを目指している。
既存のほとんどの手法は回帰を通じて代理モデルを学ぶことに依存しており、良い予測精度が良い最適化性能をもたらすと暗黙的に仮定している。
本研究では,この仮定に挑戦し,学習可能性の観点からオフラインMBOについて検討する。
オフライン最適化は基本的に、正確な値予測よりも高品質な設計をランク付けする問題であると主張する。
具体的には、準最適設計と準最適設計のランク付けに基づく最適化指向のリスクを導入し、代理学習と最終最適化を結びつける統一理論フレームワークを開発する。
回帰よりもランク付けすることの理論的利点を証明し、トレーニングデータと準最適設計との分布ミスマッチを支配的誤りとして同定する。
そこで我々は,このミスマッチを減らすために,分布対応ランキング法を設計した。
様々なタスクにまたがる実験結果から,提案手法は20の既存手法より優れており,理論的な結果が検証された。
さらに、理論的な結果と経験的な結果の両方が、オフラインMBOの本質的な制限を明らかにし、オフラインメソッドが過度に最適化外挿を回避できない状態を示す。
関連論文リスト
- Optimizers Qualitatively Alter Solutions And We Should Leverage This [62.662640460717476]
ディープニューラルネットワーク(DNN)は、SGDのようなローカル情報のみを使用する場合、損失のグローバルな最小限に収束することを保証できない。
コミュニティは、既存のメソッドのバイアスを理解すること、また、ソリューションの特定の特性を誘発する明示的な意図で、新しいDNNを構築することを目的としている。
論文 参考訳(メタデータ) (2025-07-16T13:33:31Z) - Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Learning Design-Score Manifold to Guide Diffusion Models for Offline Optimization [15.663508678977468]
本稿では,設計スコア多様体を学習する拡散型フレームワークであるManGOを紹介する。
ManGOは、トレーニングデータ以外の一般化を実現するために、設計スコアの相互依存を全体的に統一する。
様々な領域にわたる24の単目的と10の多目的の最適化手法より優れている。
論文 参考訳(メタデータ) (2025-06-06T02:11:10Z) - Preference-Guided Diffusion for Multi-Objective Offline Optimization [64.08326521234228]
オフライン多目的最適化のための優先誘導拡散モデルを提案する。
我々の指導は、ある設計が他の設計を支配する確率を予測するために訓練された選好モデルである。
本結果は,多種多様な高品質な解を生成する上での分類器誘導拡散モデルの有効性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-21T16:49:38Z) - Incorporating Surrogate Gradient Norm to Improve Offline Optimization Techniques [8.750390242872138]
オフライン最適化のためのモデルに依存しない手法を開発した。
オフラインデータセットにおけるサロゲートシャープネスの低減は、目に見えないデータに対する一般化シャープネスを確実に減少させることを示す。
我々の分析は、既存の理論を、(目に見えないデータ上の)一般化予測損失と損失シャープネスの境界から、トレーニングデータに対する経験的推定で最悪の一般化サロゲートシャープネスの境界まで拡張する。
論文 参考訳(メタデータ) (2025-03-06T09:24:23Z) - Learning Surrogates for Offline Black-Box Optimization via Gradient Matching [29.831762991506242]
本稿では,オフラインデータに基づく潜伏勾配場とサロゲートがいかによく一致しているかに基づいて,最適化品質を明示的に境界付けることによって,オフラインブラックボックス最適化を理解するための理論的枠組みを提案する。
そこで本研究では,オフライン最適化のための効果的なサロゲートモデル作成のためのブラックボックス勾配マッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-26T22:35:54Z) - Offline Model-Based Optimization by Learning to Rank [26.21886715050762]
我々は、平均二乗誤差(MSE)で訓練された回帰モデルは、オフラインモデルに基づく最適化の第一目標とうまく一致していないと論じる。
そこで本稿では,学習手法のランク付けに活用し,相対的なスコアに基づいて有望な設計を優先順位付けするランキングベースモデルを提案する。
論文 参考訳(メタデータ) (2024-10-15T11:15:03Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - From Function to Distribution Modeling: A PAC-Generative Approach to
Offline Optimization [30.689032197123755]
本稿では、オフラインデータ例の集合を除いて目的関数が不明なオフライン最適化の問題について考察する。
未知の目的関数を学習して最適化するのではなく、より直感的で直接的な視点で、最適化は生成モデルからサンプリングするプロセスと考えることができる。
論文 参考訳(メタデータ) (2024-01-04T01:32:50Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。