論文の概要: ScaLES: Scalable Latent Exploration Score for Pre-Trained Generative Networks
- arxiv url: http://arxiv.org/abs/2406.09657v1
- Date: Fri, 14 Jun 2024 02:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 15:23:26.441412
- Title: ScaLES: Scalable Latent Exploration Score for Pre-Trained Generative Networks
- Title(参考訳): ScaLES: 事前トレーニングされた生成ネットワークのためのスケーラブルな遅延探索スコア
- Authors: Omer Ronen, Ahmed Imtiaz Humayun, Randall Balestriero, Richard Baraniuk, Bin Yu,
- Abstract要約: ScaLES(Scalable Latent Exploration Score)を開発し、LSO(Latent Space Optimization)における過剰探索を緩和する。
ScaLESは、訓練されたデコーダによるデータ分布の近似を利用した、正確で理論的に動機付けられた手法である。
LSOへの新たな道は、分散領域、微分可能性、計算的トラクタビリティから特定できるScaLES能力によって開くと信じている。
- 参考スコア(独自算出の注目度): 18.7112204710545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop Scalable Latent Exploration Score (ScaLES) to mitigate over-exploration in Latent Space Optimization (LSO), a popular method for solving black-box discrete optimization problems. LSO utilizes continuous optimization within the latent space of a Variational Autoencoder (VAE) and is known to be susceptible to over-exploration, which manifests in unrealistic solutions that reduce its practicality. ScaLES is an exact and theoretically motivated method leveraging the trained decoder's approximation of the data distribution. ScaLES can be calculated with any existing decoder, e.g. from a VAE, without additional training, architectural changes, or access to the training data. Our evaluation across five LSO benchmark tasks and three VAE architectures demonstrates that ScaLES enhances the quality of the solutions while maintaining high objective values, leading to improvements over existing solutions. We believe that new avenues to LSO will be opened by ScaLES ability to identify out of distribution areas, differentiability, and computational tractability. Open source code for ScaLES is available at https://github.com/OmerRonen/scales.
- Abstract(参考訳): 我々は,ブラックボックス離散最適化問題の解法であるLatent Space Optimization (LSO)における過剰探索を軽減するために,スケーラブル遅延探索スコア(ScaLES)を開発した。
LSOは変分オートエンコーダ(VAE)の潜在空間内での連続的な最適化を利用しており、その実用性を低下させる非現実的な解において過剰探索の影響を受けやすいことが知られている。
ScaLESは、訓練されたデコーダによるデータ分布の近似を利用した、正確で理論的に動機付けられた手法である。
ScaLESは既存のデコーダ、例えばVAEからのデコーダで、追加のトレーニング、アーキテクチャの変更、トレーニングデータへのアクセスなしで計算できる。
5つのLSOベンチマークタスクと3つのVAEアーキテクチャによる評価により、ScaLESは高い目標値を維持しながら、ソリューションの品質を向上させることが示され、既存のソリューションよりも改善されている。
LSOへの新たな道は、分散領域、微分可能性、計算的トラクタビリティから特定できるScaLES能力によって開くと信じている。
ScaLESのオープンソースコードはhttps://github.com/OmerRonen/scalesで公開されている。
関連論文リスト
- Quantization Avoids Saddle Points in Distributed Optimization [1.579622195923387]
分散非最適化は、多くの分散システムの重要な機能を支える。
本研究の目的は,サドル点収束を2次定常点収束に効果的に回避できることを示すことである。
簡単に調整可能な量子化により、ユーザの制御により、通信オーバーヘッドを積極的に削減できる。
論文 参考訳(メタデータ) (2024-03-15T15:58:20Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Accelerating Inverse Learning via Intelligent Localization with
Exploratory Sampling [1.5976506570992293]
逆問題の解決は 物質と薬物発見の 長年の課題です
近年,逆問題の解法として深部生成モデルが提案されている。
逆学習を高速化する新しい手法(iPage)を提案する。
論文 参考訳(メタデータ) (2022-12-02T08:00:04Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - The Machine Learning for Combinatorial Optimization Competition (ML4CO):
Results and Insights [59.93939636422896]
ML4COは、キーコンポーネントを置き換えることで最先端の最適化問題を解決することを目的としている。
このコンペティションでは、最高の実現可能なソリューションを見つけること、最も厳密な最適性証明書を生成すること、適切なルーティング設定を提供すること、という3つの課題があった。
論文 参考訳(メタデータ) (2022-03-04T17:06:00Z) - MADE: Exploration via Maximizing Deviation from Explored Regions [48.49228309729319]
オンライン強化学習(RL)では、高次元環境における効率的な探索は依然として困難であり、報酬は少ない。
調査地域からの次の政策の逸脱を最大化することによる新たな探索手法を提案する。
提案手法は,最先端手法よりもサンプル効率を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-18T17:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。