論文の概要: Stale Profile Matching
- arxiv url: http://arxiv.org/abs/2401.17168v1
- Date: Tue, 30 Jan 2024 16:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 14:21:58.928454
- Title: Stale Profile Matching
- Title(参考訳): 静的プロファイルマッチング
- Authors: Amir Ayupov and Maksim Panchenko and Sergey Pupyrev
- Abstract要約: プロファイル誘導最適化は、最適化されたコードを生成するためにコンパイラを指示するプロファイルデータに依存する。
実際には、一般的にプロファイルコレクションとリリースの間にギャップがあり、プロファイルの一部が最適化のために無効になる。
本稿では,リリースの背後にあるいくつかのリビジョンから構築されたバイナリ上に収集されたプロファイルを利用するための,最初の実用的なソリューションを提案する。
- 参考スコア(独自算出の注目度): 1.1091463365252643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Profile-guided optimizations rely on profile data for directing compilers to
generate optimized code. To achieve the maximum performance boost, profile data
needs to be collected on the same version of the binary that is being
optimized. In practice however, there is typically a gap between the profile
collection and the release, which makes a portion of the profile invalid for
optimizations. This phenomenon is known as profile staleness, and it is a
serious practical problem for data-center workloads both for compilers and
binary optimizers.
In this paper we thoroughly study the staleness problem and propose the first
practical solution for utilizing profiles collected on binaries built from
several revisions behind the release. Our algorithm is developed and
implemented in a mainstream open-source post-link optimizer, BOLT. An extensive
evaluation on a variety of standalone benchmarks and production services
indicates that the new method recovers up to $0.8$ of the maximum BOLT benefit,
even when most of the input profile data is stale and would have been discarded
by the optimizer otherwise.
- Abstract(参考訳): プロファイル誘導最適化は、最適化されたコードを生成するためにコンパイラを指示するプロファイルデータに依存する。
最大パフォーマンス向上を達成するためには、最適化されているバイナリの同じバージョンでプロファイルデータを収集する必要がある。
しかし実際には、一般的にプロファイルコレクションとリリースの間にはギャップがあり、プロファイルの一部が最適化のために無効になる。
この現象はプロファイルの安定性として知られており、コンパイラとバイナリオプティマイザの両方でデータセンターのワークロードに深刻な問題となる。
そこで本研究では,いくつかの修正版から構築したバイナリ上で収集したプロファイルを活用するための,最初の実用的なソリューションを提案する。
提案アルゴリズムは,主要なオープンソースポストリンクオプティマイザであるBOLTで開発,実装されている。
様々なスタンドアロンベンチマークとプロダクションサービスの広範な評価は、入力プロファイルデータの大半が不安定で、オプティマイザによって破棄されたとしても、新しい手法がBOLTの最大利益の最大0.8ドルまで回復することを示している。
関連論文リスト
- Brevity is the soul of wit: Pruning long files for code generation [19.61423412870527]
計算に制限のある状況下では、単純な長文ファイルが他の方法より優れていることが分かる。
本手法は,HumanEvalの学習効率を最大2倍に向上させるか,あるいは3.5%の絶対性能向上を達成できる。
論文 参考訳(メタデータ) (2024-06-29T13:08:24Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Optimistic Optimization of Gaussian Process Samples [30.226274682578172]
競合する、計算的により効率的でグローバルな最適化フレームワークは楽観的な最適化であり、これは探索空間の幾何学に関する事前知識を相似関数として利用している。
幾何的探索と確率的探索の間には新たな研究領域があり、ベイズ最適化の重要な機能を保ちながら、従来のベイズ最適化よりも大幅に高速に実行される方法がある。
論文 参考訳(メタデータ) (2022-09-02T09:06:24Z) - Profile Guided Optimization without Profiles: A Machine Learning
Approach [0.0]
プロファイルガイド最適化は動的挙動に基づくコンパイラの最適化能力を改善する効果的な手法である。
本稿では,プロファイルを導出せずにコンパイルされるプログラムの性能を向上させる分岐確率推定のための新しい統計的アプローチを提案する。
論文 参考訳(メタデータ) (2021-12-24T22:49:21Z) - Bayesian Algorithm Execution: Estimating Computable Properties of
Black-box Functions Using Mutual Information [78.78486761923855]
多くの現実世界では、T関数の評価の予算を考えると、高価なブラックボックス関数 f の性質を推測したい。
本稿では,アルゴリズムの出力に対して相互情報を最大化するクエリを逐次選択する手法InfoBAXを提案する。
これらの問題に対してInfoBAXは、元のアルゴリズムで要求されるより500倍少ないクエリをfに使用する。
論文 参考訳(メタデータ) (2021-04-19T17:22:11Z) - Revisiting Bayesian Optimization in the light of the COCO benchmark [1.4467794332678539]
本稿では,共通かつあまり一般的ではない設計選択のbo(gaussian process based)の性能への影響について,大規模な調査を行う。
この研究のために開発されたコードは、RパッケージDiceOptimの新バージョン(v2.1.1)をCRANで利用可能にしている。
論文 参考訳(メタデータ) (2021-03-30T19:45:18Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Stochastic Optimization with Laggard Data Pipelines [65.20044914532221]
共通最適化手法の「データ抽出」拡張は同期手法よりも優れた性能を示すことを示す。
具体的には、ミニバッチによる凸最適化において、データエコーは、最適統計率を維持しながら収束率の曲率に支配される部分の高速化をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-26T14:55:31Z) - Bayesian Optimization with a Prior for the Optimum [41.41323474440455]
BOPrO (Preside for the Optimum) を用いたベイズ最適化について紹介する。
BOPrOは、入力空間のどの部分が最高のパフォーマンスをもたらすかという事前の形式で、最適化プロセスに自分の知識を注入することを可能にする。
BOPrOは、一般的なベンチマークスイートの最先端メソッドよりも約6.67倍高速であることを示す。
論文 参考訳(メタデータ) (2020-06-25T17:49:24Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。