論文の概要: Long-run Behaviour of Multi-fidelity Bayesian Optimisation
- arxiv url: http://arxiv.org/abs/2312.12633v1
- Date: Tue, 19 Dec 2023 22:30:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 17:38:17.518806
- Title: Long-run Behaviour of Multi-fidelity Bayesian Optimisation
- Title(参考訳): 多忠実ベイズ最適化の長期挙動
- Authors: Gbetondji J-S Dovonon, Jakob Zeitler
- Abstract要約: 本研究では,MFBOの長期的挙動を,特定のシナリオにおいて過小評価される可能性のある観測結果に基づいて検討する。
長期にわたるMBFOの低性能は、多くの研究課題への応用を著しく損なう可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-fidelity Bayesian Optimisation (MFBO) has been shown to generally
converge faster than single-fidelity Bayesian Optimisation (SFBO) (Poloczek et
al. (2017)). Inspired by recent benchmark papers, we are investigating the
long-run behaviour of MFBO, based on observations in the literature that it
might under-perform in certain scenarios (Mikkola et al. (2023), Eggensperger
et al. (2021)). An under-performance of MBFO in the long-run could
significantly undermine its application to many research tasks, especially when
we are not able to identify when the under-performance begins. We create a
simple benchmark study, showcase empirical results and discuss scenarios and
possible reasons of under-performance.
- Abstract(参考訳): MFBO(Multi-fidelity Bayesian Optimisation)は、一般に単一忠実ベイズ最適化(SFBO)よりも早く収束することが示されている(Poloczek et al. (2017))。
最近のベンチマーク論文に触発されて、特定のシナリオ(Mikkola et al. (2023), Eggensperger et al. (2021))でパフォーマンスが低くなるという文献の観測に基づいて、MFBOの長期的挙動を調査している。
長期にわたるMBFOの低パフォーマンスは、多くの研究課題、特に低パフォーマンスの開始時期を特定できない場合に、その適用を著しく損なう可能性がある。
簡単なベンチマークスタディを作成し,経験的な結果を示し,低パフォーマンスのシナリオと考えられる理由について論じる。
関連論文リスト
- Constrained Multi-objective Bayesian Optimization through Optimistic Constraints Estimation [10.77641869521259]
CMOBOは、原則的に実現可能な領域内の多目的最適化と、実現可能な領域の学習のバランスをとる。
理論的正当化と実証的証拠の両方を提供し、様々な合成ベンチマークや実世界の応用に対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-11-06T03:38:00Z) - Margin Matching Preference Optimization: Enhanced Model Alignment with Granular Feedback [64.67540769692074]
人間のフィードバックからの強化学習など、アライメント技術で微調整された大規模言語モデル(LLM)は、これまでで最も有能なAIシステムの開発に役立っている。
マージンマッチング選好最適化(MMPO)と呼ばれる手法を導入し、相対的な品質マージンを最適化し、LLMポリシーと報酬モデルを改善する。
人間とAIの両方のフィードバックデータによる実験によると、MMPOはMT-benchやRewardBenchといった一般的なベンチマークにおいて、ベースラインメソッドよりも一貫してパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-10-04T04:56:11Z) - Revisiting BPR: A Replicability Study of a Common Recommender System Baseline [78.00363373925758]
我々は,BPRモデルの特徴を考察し,その性能への影響を示し,オープンソースのBPR実装について検討する。
分析の結果,これらの実装とオリジナルのBPR論文の矛盾が明らかとなり,特定の実装に対して最大50%の性能低下がみられた。
BPRモデルは、トップnのレコメンデーションタスクにおける最先端メソッドに近いパフォーマンスレベルを達成でき、特定のデータセット上でもパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-09-21T18:39:53Z) - Fine-Grained Self-Endorsement Improves Factuality and Reasoning [72.83651220132495]
本研究は, 大規模言語モデル (LLM) 世代を推定時に改善するために, ファクト・コンプレッション・幻覚を緩和する。
本稿では,複数のサンプル応答におけるファクトレベルの詳細な比較を生かした自己組織化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T22:24:40Z) - BOtied: Multi-objective Bayesian optimization with tied multivariate ranks [33.414682601242006]
本稿では,非支配解と結合累積分布関数の極端量子化との自然な関係を示す。
このリンクにより、我々はPareto対応CDFインジケータと関連する取得関数BOtiedを提案する。
種々の合成および実世界の問題に対する実験により,BOtied は最先端MOBO 取得関数より優れていることが示された。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - Mind the Gap: Measuring Generalization Performance Across Multiple
Objectives [29.889018459046316]
本稿では,MHPO法の一般化性能を計測できる新しい評価プロトコルを提案する。
また,2つの最適化実験を比較する能力についても検討した。
論文 参考訳(メタデータ) (2022-12-08T10:53:56Z) - Multi-objective Asynchronous Successive Halving [10.632606255280649]
本稿では,非同期半減期 (ASHA) を多目的 (MO) 設定に拡張するアルゴリズムを提案する。
実験分析の結果,MO ASHAはMO HPOを大規模に実行可能であることがわかった。
我々のアルゴリズムは、この地域における将来の研究の新たなベースラインを確立する。
論文 参考訳(メタデータ) (2021-06-23T19:39:31Z) - An Empirical Study of Assumptions in Bayesian Optimisation [61.19427472792523]
本研究では,ベイズ最適化に固有の従来的および非慣習的仮定を厳密に分析する。
超パラメータチューニングタスクの大多数は、不均一性と非定常性を示すと結論付けている。
これらの発見が実践者およびこの分野のさらなる研究の指針となることを願っている。
論文 参考訳(メタデータ) (2020-12-07T16:21:12Z) - Finding Action Tubes with a Sparse-to-Dense Framework [62.60742627484788]
本稿では,ビデオストリームからのアクションチューブ提案を1つのフォワードパスでスパース・トゥ・デンス方式で生成するフレームワークを提案する。
UCF101-24, JHMDB-21, UCFSportsベンチマークデータセット上で, 本モデルの有効性を評価する。
論文 参考訳(メタデータ) (2020-08-30T15:38:44Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。