論文の概要: Few-Shot Design Optimization by Exploiting Auxiliary Information
- arxiv url: http://arxiv.org/abs/2602.12112v1
- Date: Thu, 12 Feb 2026 16:03:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.913934
- Title: Few-Shot Design Optimization by Exploiting Auxiliary Information
- Title(参考訳): 補助情報をエクスプロイトしたFew-Shot設計最適化
- Authors: Arjun Mani, Carl Vondrick, Richard Zemel,
- Abstract要約: 実験が高次元補助情報$h(x)$と性能指標$f(x)$を同時に生成する新しい設定を導入する。
我々の設定の重要な課題は、タスク履歴を超えた新しい最適化タスクを効率的に解決するために$h(x)$をどのように表現し、利用するかを学ぶことです。
我々は,この設定のための新しいアプローチを開発し,数ショットのコンテキストを与えられた未知のデザインに対して$f(x)$を予測できるニューラルネットワークモデルを開発した。
- 参考スコア(独自算出の注目度): 39.83852410377445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many real-world design problems involve optimizing an expensive black-box function $f(x)$, such as hardware design or drug discovery. Bayesian Optimization has emerged as a sample-efficient framework for this problem. However, the basic setting considered by these methods is simplified compared to real-world experimental setups, where experiments often generate a wealth of useful information. We introduce a new setting where an experiment generates high-dimensional auxiliary information $h(x)$ along with the performance measure $f(x)$; moreover, a history of previously solved tasks from the same task family is available for accelerating optimization. A key challenge of our setting is learning how to represent and utilize $h(x)$ for efficiently solving new optimization tasks beyond the task history. We develop a novel approach for this setting based on a neural model which predicts $f(x)$ for unseen designs given a few-shot context containing observations of $h(x)$. We evaluate our method on two challenging domains, robotic hardware design and neural network hyperparameter tuning, and introduce a novel design problem and large-scale benchmark for the former. On both domains, our method utilizes auxiliary feedback effectively to achieve more accurate few-shot prediction and faster optimization of design tasks, significantly outperforming several methods for multi-task optimization.
- Abstract(参考訳): 多くの現実世界の設計問題は、ハードウェア設計や薬物発見のような高価なブラックボックス関数を$f(x)$に最適化することを含む。
ベイズ最適化はこの問題のサンプリング効率のよいフレームワークとして登場した。
しかし、これらの手法によって考慮された基本的な設定は、実世界の実験環境と比べて単純化されており、実験は有用な情報を豊富に生成することが多い。
我々は,実験が高次元補助情報$h(x)$と性能指標$f(x)$を同時に生成する新たな設定を導入する。
我々の設定の重要な課題は、タスク履歴を超えた新しい最適化タスクを効率的に解決するために$h(x)$をどのように表現し、利用するかを学ぶことです。
我々は、この設定のための新しいアプローチを開発し、$h(x)$の観測を含む数ショットコンテキストが与えられた場合、未知の設計に対して$f(x)$を予測するニューラルネットワークモデルを開発した。
本手法は,ロボットハードウェア設計とニューラルネットワークハイパーパラメータチューニングという2つの課題領域において評価し,新しい設計問題と大規模ベンチマークを導入する。
両領域において,提案手法はより正確な数ショットの予測と設計タスクの高速化に有効であり,マルチタスク最適化におけるいくつかの手法よりも優れていた。
関連論文リスト
- Neural Nonmyopic Bayesian Optimization in Dynamic Cost Settings [73.44599934855067]
LookaHESは、動的で履歴に依存したコスト環境のために設計された非心筋BOフレームワークである。
LookaHESは、$H$-Entropy Searchのマルチステップ版と、パスワイズサンプリングとニューラルポリシー最適化を組み合わせたものだ。
私たちの革新は、構造化されたドメイン固有のアクションスペースを効果的にナビゲートするために、大きな言語モデルを含むニューラルポリシーの統合です。
論文 参考訳(メタデータ) (2026-01-10T09:49:45Z) - Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Multi-Fidelity Bayesian Optimization With Across-Task Transferable Max-Value Entropy Search [36.14499894307206]
本稿では,現在のタスクに関する情報を取得する必要性と,将来的なタスクに伝達可能な情報を集めることのバランスをとる新しい情報理論獲得機能を提案する。
提案手法は,十分なタスク数を処理すると,最適化効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-14T17:00:01Z) - Landscape Surrogate: Learning Decision Losses for Mathematical
Optimization Under Partial Information [48.784330281177446]
学習統合最適化の最近の研究は、最適化が部分的にのみ観察される場合や、専門家のチューニングなしに汎用性が不十分な環境では有望であることを示している。
本稿では,$fcirc mathbfg$の代替として,スムーズで学習可能なランドスケープサロゲートを提案する。
このサロゲートはニューラルネットワークによって学習可能で、$mathbfg$ソルバよりも高速に計算でき、トレーニング中に密度が高く滑らかな勾配を提供し、目に見えない最適化問題に一般化でき、交互最適化によって効率的に学習される。
論文 参考訳(メタデータ) (2023-07-18T04:29:16Z) - Transfer Learning for Bayesian Optimization: A Survey [29.229660973338145]
ブラックボックス最適化は、このような高価なブラックボックス機能をモデル化し、最適化する強力なツールである。
BOコミュニティの研究者たちは、最適化プロセスの高速化にトランスファーラーニングの精神を取り入れることを提案する。
論文 参考訳(メタデータ) (2023-02-12T14:37:25Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Conservative Objective Models for Effective Offline Model-Based
Optimization [78.19085445065845]
計算設計の問題は、合成生物学からコンピュータアーキテクチャまで、様々な場面で発生している。
本研究では,分布外入力に対する接地的目標の実際の値を低くする目的関数のモデルを学習する手法を提案する。
COMは、様々なMBO問題に対して、既存のメソッドの実装と性能の面では単純である。
論文 参考訳(メタデータ) (2021-07-14T17:55:28Z) - MUMBO: MUlti-task Max-value Bayesian Optimization [10.10241176664951]
MUMBOは、マルチタスクベイズ最適化のための、高性能だが計算効率のよい最初の取得関数である。
エントロピー探索のマルチタスク版を考案し,計算オーバーヘッドの少ない堅牢な性能を実現する。
論文 参考訳(メタデータ) (2020-06-22T09:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。