論文の概要: Optimizing LLVM Pass Sequences with Shackleton: A Linear Genetic
Programming Framework
- arxiv url: http://arxiv.org/abs/2201.13305v1
- Date: Mon, 31 Jan 2022 15:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 16:18:07.049823
- Title: Optimizing LLVM Pass Sequences with Shackleton: A Linear Genetic
Programming Framework
- Title(参考訳): shackletonによるllvmパスシーケンスの最適化 : 線形遺伝的プログラミングフレームワーク
- Authors: Hannah Peeler, Shuyue Stella Li, Andrew N. Sloss, Kenneth N. Reid,
Yuan Yuan, Wolfgang Banzhaf
- Abstract要約: 線形遺伝的プログラミングを応用可能なフレームワークとしてShackletonを紹介した。
ここでは、LLVM最適化パスのシーケンスを最適化する、このクラスの新しいアプリケーションについて検討する。
複雑度が異なる2つのソフトウェアアプリケーションに対して,シャクルトンを用いたパスシーケンスの自動最適化結果について報告する。
- 参考スコア(独自算出の注目度): 7.194537857140104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce Shackleton as a generalized framework enabling the
application of linear genetic programming -- a technique under the umbrella of
evolutionary algorithms -- to a variety of use cases. We also explore here a
novel application for this class of methods: optimizing sequences of LLVM
optimization passes. The algorithm underpinning Shackleton is discussed, with
an emphasis on the effects of different features unique to the framework when
applied to LLVM pass sequences. Combined with analysis of different
hyperparameter settings, we report the results on automatically optimizing pass
sequences using Shackleton for two software applications at differing
complexity levels. Finally, we reflect on the advantages and limitations of our
current implementation and lay out a path for further improvements. These
improvements aim to surpass hand-crafted solutions with an automatic discovery
method for an optimal pass sequence.
- Abstract(参考訳): 本稿では,進化的アルゴリズムを包含した線形遺伝的プログラミングを,様々なユースケースに適用可能な一般化フレームワークとしてシャクルトンを紹介した。
LLVM最適化パスのシーケンスを最適化する。
Shackletonを基盤とするアルゴリズムは,LLVMパスシーケンスに適用した場合に,フレームワーク固有の機能の影響を強調したものだ。
異なるハイパーパラメータ設定の分析と組み合わせて,複雑性レベルが異なる2つのソフトウェアアプリケーションに対して,シャクルトンを用いたパスシーケンスの自動最適化の結果を報告する。
最後に、私たちは現在の実装の利点と限界を振り返り、さらなる改善の道筋を示します。
これらの改善は、最適パスシーケンスの自動検出法により手作りのソリューションを超えることを目的としている。
関連論文リスト
- Benchmarking Optimizers for Qumode State Preparation with Variational Quantum Algorithms [10.941053143198092]
この分野の進歩と潜在的な応用により、クォーモックへの関心が高まっている。
本稿では,変分量子アルゴリズムを用いて状態準備に使用する各種パラメータのパフォーマンスベンチマークを提供することにより,このギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-05-07T17:15:58Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Stochastic Ratios Tracking Algorithm for Large Scale Machine Learning
Problems [0.7614628596146599]
古典的なSGDフレームワークにおける適応的なステップ長選択のための新しいアルゴリズムを提案する。
妥当な条件下では、アルゴリズムは十分に確立された理論的な要件に従ってステップ長を生成する。
このアルゴリズムは,手動チューニングから得られる最良ステップ長に匹敵するステップ長を生成することができることを示す。
論文 参考訳(メタデータ) (2023-05-17T06:22:11Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Genetic Improvement in the Shackleton Framework for Optimizing LLVM Pass
Sequences [2.25491649634702]
線形遺伝プログラミングフレームワークShackletonにおけるパスレベルのパッチ表現を開発し、デフォルトの最適化パスシーケンスに適用するための修正を進化させる。
我々のGI進化ソリューションは、デフォルトのコード生成オプションの-O3最適化レベルと比較して平均3.7%のランタイム改善があります。
論文 参考訳(メタデータ) (2022-04-28T02:48:04Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - Optimizing generalization on the train set: a novel gradient-based
framework to train parameters and hyperparameters simultaneously [0.0]
一般化は機械学習における中心的な問題である。
本稿では,新たなリスク尺度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T18:04:36Z) - Optimization of Graph Total Variation via Active-Set-based Combinatorial
Reconditioning [48.42916680063503]
本稿では,この問題クラスにおける近位アルゴリズムの適応型事前条件付け手法を提案する。
不活性エッジのネスト・フォレスト分解により局所収束速度が保証されることを示す。
この結果から,局所収束解析は近似アルゴリズムにおける可変指標選択の指針となることが示唆された。
論文 参考訳(メタデータ) (2020-02-27T16:33:09Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。