論文の概要: Fast Bayesian Optimization of Function Networks with Partial Evaluations
- arxiv url: http://arxiv.org/abs/2506.11456v2
- Date: Mon, 23 Jun 2025 15:42:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 14:54:00.387269
- Title: Fast Bayesian Optimization of Function Networks with Partial Evaluations
- Title(参考訳): 部分評価による関数ネットワークの高速ベイズ最適化
- Authors: Poompol Buathong, Peter I. Frazier,
- Abstract要約: 本稿では,クエリ効率をわずかに損なうことなく計算オーバーヘッドを削減する,高速化されたp-KGFNアルゴリズムを提案する。
我々のアプローチの鍵は、1つの安価なグローバルモンテカルロシミュレーションによってネットワークの各ノードに対してノード固有の候補入力を生成することである。
数値実験により,元のp-KGFNアルゴリズムの16倍の高速化を達成しつつ,競合クエリ効率を維持する。
- 参考スコア(独自算出の注目度): 7.688686113950605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian optimization of function networks (BOFN) is a framework for optimizing expensive-to-evaluate objective functions structured as networks, where some nodes' outputs serve as inputs for others. Many real-world applications, such as manufacturing and drug discovery, involve function networks with additional properties - nodes that can be evaluated independently and incur varying costs. A recent BOFN variant, p-KGFN, leverages this structure and enables cost-aware partial evaluations, selectively querying only a subset of nodes at each iteration. p-KGFN reduces the number of expensive objective function evaluations needed but has a large computational overhead: choosing where to evaluate requires optimizing a nested Monte Carlo-based acquisition function for each node in the network. To address this, we propose an accelerated p-KGFN algorithm that reduces computational overhead with only a modest loss in query efficiency. Key to our approach is generation of node-specific candidate inputs for each node in the network via one inexpensive global Monte Carlo simulation. Numerical experiments show that our method maintains competitive query efficiency while achieving up to a 16x speedup over the original p-KGFN algorithm.
- Abstract(参考訳): 関数ネットワークのベイズ最適化(英: Bayesian optimization of function network、BOFN)は、ネットワークとして構築された高コストで評価可能な目的関数を最適化するためのフレームワークであり、あるノードの出力が他のノードの入力として機能する。
製造や薬物発見などの現実世界のアプリケーションの多くは、独立して評価し、さまざまなコストを発生させることができるノードという、追加的な特性を持つ関数ネットワークを含んでいる。
最近のBOFN変種であるp-KGFNは、この構造を利用して、各イテレーションでノードのサブセットのみを選択的にクエリする、コストを意識した部分評価を可能にする。
p-KGFNでは,ネットワークの各ノードに対して,ネストしたモンテカルロベースの取得関数を最適化する必要がある。
そこで本研究では,クエリ効率をわずかに損なうだけで計算オーバーヘッドを低減できる高速化されたp-KGFNアルゴリズムを提案する。
我々のアプローチの鍵は、1つの安価なグローバルモンテカルロシミュレーションによってネットワークの各ノードに対してノード固有の候補入力を生成することである。
数値実験により,元のp-KGFNアルゴリズムよりも最大16倍の高速化を実現しつつ,競合クエリ効率を維持する。
関連論文リスト
- Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Bayesian Optimization of Function Networks with Partial Evaluations [16.447868102676885]
本稿では,どのノードと対応する入力を選択して,コストを意識して評価する知識勾配獲得関数を提案する。
我々の獲得関数は、幅広い種類の関数ネットワークの費用対効果を最適化する最初の方法である。
論文 参考訳(メタデータ) (2023-11-03T17:55:08Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Efficient Neural Network Analysis with Sum-of-Infeasibilities [64.31536828511021]
凸最適化における総和係数法に着想を得て,広範な分岐関数を持つネットワーク上での検証クエリを解析するための新しい手法を提案する。
標準ケース分析に基づく完全探索手順の拡張は、各検索状態で実行される凸手順をDeepSoIに置き換えることによって達成できる。
論文 参考訳(メタデータ) (2022-03-19T15:05:09Z) - Bayesian Optimization of Function Networks [20.73717187683924]
本稿では,関数ネットワークの出力のベイジアン最適化,親ノードの出力の入力として各関数が要し,ネットワークの評価に要する時間について考察する。
我々の手法は、前者が無視する情報、すなわちネットワーク内の中間出力を活用することにより、クエリ効率を向上する。
提案手法は,いくつかの合成および実世界の問題において,標準的なベイズ最適化手法よりも劇的に優れていることを示す。
論文 参考訳(メタデータ) (2021-12-31T05:35:21Z) - COPS: Controlled Pruning Before Training Starts [68.8204255655161]
最先端のディープニューラルネットワーク(DNN)プルーニング技術は、トレーニング開始前にワンショットで適用され、プルーニングスコアと呼ばれる単一の基準の助けを借りてスパースアーキテクチャを評価する。
この作業では、単一プルーニング基準に集中するのではなく、任意のGASを組み合わせてより強力なプルーニング戦略を構築するためのフレームワークを提供します。
論文 参考訳(メタデータ) (2021-07-27T08:48:01Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。