論文の概要: Language Models for Code Optimization: Survey, Challenges and Future Directions
- arxiv url: http://arxiv.org/abs/2501.01277v1
- Date: Thu, 02 Jan 2025 14:20:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:16:02.184229
- Title: Language Models for Code Optimization: Survey, Challenges and Future Directions
- Title(参考訳): コード最適化のための言語モデル: 調査,課題,今後の方向性
- Authors: Jingzhi Gong, Vardan Voskanyan, Paul Brookes, Fan Wu, Wei Jie, Jie Xu, Rafail Giavrimis, Mike Basios, Leslie Kanthan, Zheng Wang,
- Abstract要約: ディープニューラルネットワーク(DNN)上に構築された言語モデル(LM)は、先日、ソフトウェアエンジニアリングタスクにおいて、画期的な効果を実証した。
本稿では,50以上の初等研究の体系的な文献レビューを行い,新たな傾向を特定し,11の専門的な疑問に対処する。
結果は、モデルの複雑さと実用的なユーザビリティのバランス、一般化性の向上、AIによるソリューションへの信頼の構築など、5つの重要なオープン課題を明らかにしている。
- 参考スコア(独自算出の注目度): 7.928856221466083
- License:
- Abstract: Language models (LMs) built upon deep neural networks (DNNs) have recently demonstrated breakthrough effectiveness in software engineering tasks like code generation, code completion, and code repair. This has paved the way for the emergence of LM-based code optimization techniques, which are pivotal for enhancing the performance of existing programs, such as accelerating program execution time. However, a comprehensive survey dedicated to this specific application has been lacking. To address this gap, we present a systematic literature review of over 50 primary studies, identifying emerging trends and addressing 11 specialized questions. The results disclose five critical open challenges, such as balancing model complexity with practical usability, enhancing generalizability, and building trust in AI-powered solutions. Furthermore, we provide eight future research directions to facilitate more efficient, robust, and reliable LM-based code optimization. Thereby, this study seeks to provide actionable insights and foundational references for both researchers and practitioners in this rapidly evolving field.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)上に構築された言語モデル(LM)は先頃、コード生成やコード補完、コード修復といったソフトウェアエンジニアリングタスクにおいて、画期的な効果を実証した。
これにより、LMベースのコード最適化技術が出現し、プログラムの実行時間を短縮するなど、既存のプログラムの性能向上に欠かせないものとなった。
しかし、この特定の応用に関する包括的な調査は欠如している。
このギャップに対処するために、50以上の初等研究の体系的な文献レビューを行い、新しい傾向を特定し、11の専門的な質問に対処する。
結果は、モデルの複雑さと実用的なユーザビリティのバランス、一般化性の向上、AIによるソリューションへの信頼の構築など、5つの重要なオープン課題を明らかにしている。
さらに、より効率的で堅牢で信頼性の高いLMベースのコード最適化を容易にするために、今後の8つの研究方向を提供する。
そこで本研究では、この急速に発展する分野において、研究者と実践者の両方に実用的な洞察と基礎的参照を提供することを目的とする。
関連論文リスト
- Enhancing LLM Reasoning with Reward-guided Tree Search [95.06503095273395]
o1のような推論アプローチは困難で、研究者はこのオープンな研究領域を前進させようとさまざまな試みを行ってきた。
本稿では,報酬誘導木探索アルゴリズムを用いて,LLMの推論能力を高めるための予備的な検討を行う。
論文 参考訳(メタデータ) (2024-11-18T16:15:17Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - LLM4TDD: Best Practices for Test Driven Development Using Large Language
Models [0.76146285961466]
本稿では,LLM4TDDの概念を考察し,テスト駆動開発手法を用いて大規模言語モデルを用いてコードを反復的に生成する手法を提案する。
本稿では,ChatGPTとLeetCodeのコーディング問題を用いて実験的な評価を行い,LLM4TDDの有効性に対するテスト,プロンプト,問題属性の影響について検討する。
論文 参考訳(メタデータ) (2023-12-07T20:37:54Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Pitfalls in Language Models for Code Intelligence: A Taxonomy and Survey [21.01561950216472]
現代の言語モデル(LM)はソースコードの生成と理解に成功している。
その大きな可能性にもかかわらず、コードインテリジェンスのための言語モデル(LM4Code)は潜在的な落とし穴の影響を受けやすい。
論文 参考訳(メタデータ) (2023-10-27T05:32:57Z) - On the Reliability and Explainability of Language Models for Program
Generation [15.569926313298337]
自動プログラム生成手法の能力と限界について検討する。
私たちは、コード変換に大きく貢献するトークンを強調するために、高度な説明可能なAIアプローチを採用しています。
解析の結果,言語モデルではコード文法や構造情報を認識できるが,入力シーケンスの変化に対するロバスト性は限られていることがわかった。
論文 参考訳(メタデータ) (2023-02-19T14:59:52Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。