論文の概要: Supersonic: Learning to Generate Source Code Optimisations in C/C++
- arxiv url: http://arxiv.org/abs/2309.14846v1
- Date: Tue, 26 Sep 2023 11:21:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 14:03:38.512499
- Title: Supersonic: Learning to Generate Source Code Optimisations in C/C++
- Title(参考訳): Supersonic: C/C++でソースコード最適化を生成することを学ぶ
- Authors: Zimin Chen, Sen Fang and Martin Monperrus
- Abstract要約: 最適化のためのマイナーなソースコード修正をターゲットとしたニューラルネットワークであるSupersonicを提案する。
Supersonicのパフォーマンスは、OpenAIのGPT-3.5-TurboとGPT-4の競合プログラミングタスクに対してベンチマークされる。
- 参考スコア(独自算出の注目度): 10.4516364062535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software optimization refines programs for resource efficiency while
preserving functionality. Traditionally, it is a process done by developers and
compilers. This paper introduces a third option, automated optimization at the
source code level. We present Supersonic, a neural approach targeting minor
source code modifications for optimization. Using a seq2seq model, Supersonic
is trained on C/C++ program pairs ($x_{t}$, $x_{t+1}$), where $x_{t+1}$ is an
optimized version of $x_{t}$, and outputs a diff. Supersonic's performance is
benchmarked against OpenAI's GPT-3.5-Turbo and GPT-4 on competitive programming
tasks. The experiments show that Supersonic not only outperforms both models on
the code optimization task, but also minimizes the extent of change with a more
than 600x smaller than GPT-3.5-Turbo and 3700x smaller than GPT-4.
- Abstract(参考訳): ソフトウェア最適化は、機能を維持しながら、リソース効率のプログラムを洗練する。
伝統的に、これは開発者とコンパイラが行うプロセスである。
本稿では,第3の選択肢であるソースコードレベルでの自動最適化を提案する。
最適化のためのマイナーソースコード修正を目的としたニューラルネットワークであるSupersonicを提案する。
seq2seqモデルを使用して、SupersonicはC/C++プログラムペア($x_{t}$, $x_{t+1}$)でトレーニングされ、$x_{t+1}$は$x_{t}$の最適化バージョンであり、差分を出力する。
Supersonicのパフォーマンスは、OpenAIのGPT-3.5-TurboとGPT-4の競合プログラミングタスクに対してベンチマークされる。
実験の結果、Supersonicはコード最適化タスクにおいて両方のモデルを上回るだけでなく、GPT-3.5-Turboより600倍、GPT-4より3700倍小さい変更範囲を最小化できることがわかった。
関連論文リスト
- How to Boost Any Loss Function [63.573324901948716]
損失関数はブースティングにより最適化可能であることを示す。
また、古典的な$0の注文設定でまだ不可能な成果を達成できることも示しています。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - Transfer Q Star: Principled Decoding for LLM Alignment [105.89114186982972]
Transfer $Q*$は、ベースラインモデルを通してターゲット報酬$r$の最適値関数を推定する。
提案手法は, 従来のSoTA法で観測された準最適差を著しく低減する。
論文 参考訳(メタデータ) (2024-05-30T21:36:12Z) - Landscape Surrogate: Learning Decision Losses for Mathematical
Optimization Under Partial Information [48.784330281177446]
学習統合最適化の最近の研究は、最適化が部分的にのみ観察される場合や、専門家のチューニングなしに汎用性が不十分な環境では有望であることを示している。
本稿では,$fcirc mathbfg$の代替として,スムーズで学習可能なランドスケープサロゲートを提案する。
このサロゲートはニューラルネットワークによって学習可能で、$mathbfg$ソルバよりも高速に計算でき、トレーニング中に密度が高く滑らかな勾配を提供し、目に見えない最適化問題に一般化でき、交互最適化によって効率的に学習される。
論文 参考訳(メタデータ) (2023-07-18T04:29:16Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - ALT: Breaking the Wall between Graph and Operator Level Optimizations
for Deep Learning Compilation [38.8918502461244]
ALTはディープモデルのためのグラフと演算子レベルの共同最適化を行うコンパイラである。
JOGは、単一の演算子の性能とエンドツーエンドの推論性能の両方の観点から、最先端のコンパイラ(例えばAnsor)よりも大幅に優れている。
論文 参考訳(メタデータ) (2022-10-22T11:09:36Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Bayesian Optimistic Optimisation with Exponentially Decaying Regret [58.02542541410322]
現在の実用的なBOアルゴリズムは、$mathcalO(fraclogNsqrtN)$から$mathcalO(e-sqrtN)$まで、$N$は評価の数である。
本稿では,boと木に基づく楽観的楽観化の概念を絡み合うことにより,無音環境における後悔を改善できる可能性について検討する。
次数$mathcal O(N-sqrt)で指数的再帰を達成できる最初の実践的手法であるBOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T13:07:44Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z) - Flexible numerical optimization with ensmallen [15.78308411537254]
本報告では,数値最適化ライブラリの小型化について紹介する。
このライブラリは、任意のユーザ供給関数を数学的に最適化するための、高速で柔軟なC++フレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-09T12:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。