論文の概要: Program Decomposition and Translation with Static Analysis
- arxiv url: http://arxiv.org/abs/2401.12412v1
- Date: Mon, 22 Jan 2024 23:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 17:16:31.921113
- Title: Program Decomposition and Translation with Static Analysis
- Title(参考訳): 静的解析によるプログラム分解と翻訳
- Authors: Ali Reza Ibrahimzada
- Abstract要約: 大規模言語モデル(LLM)の文脈ウィンドウに対する方法レベルのプログラム分解の効果を評価する。
そこで本研究では,コンテキスト外問題により本来実行できなかった非常に大きなファイルの翻訳を可能にする方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rising popularity of Large Language Models (LLMs) has motivated exploring
their use in code-related tasks. Code LLMs with more than millions of
parameters are trained on a massive amount of code in different Programming
Languages (PLs). Such models are used for automating various Software
Engineering (SE) tasks using prompt engineering. However, given the very large
size of industry-scale project files, a major issue of these LLMs is their
limited context window size, motivating the question of "Can these LLMs process
very large files and can we effectively perform prompt engineering?". Code
translation aims to convert source code from one PL to another. In this work,
we assess the effect of method-level program decomposition on context window of
LLMs and investigate how this approach can enable translation of very large
files which originally could not be done due to out-of-context issue. Our
observations from 20 well-known java projects and approximately 60K methods
suggest that method-level program decomposition significantly improves the
limited context window problem of LLMs by 99.5%. Furthermore, our empirical
analysis indicate that with method-level decomposition, each input fragment on
average only consumes 5% of the context window, leaving more context space for
prompt engineering and the output. Finally, we investigate the effectiveness of
a Call Graph (CG) approach for translating very large files when doing
method-level program decomposition.
- Abstract(参考訳): 大規模言語モデル(llms)の人気が高まり、コード関連のタスクでの利用を探求する動機となった。
数百万のパラメータを持つコードLLMは、異なるプログラミング言語(PL)で大量のコードで訓練されています。
このようなモデルは、プロンプトエンジニアリングを使用して様々なソフトウェアエンジニアリング(SE)タスクを自動化するために使用される。
しかし、業界規模のプロジェクトファイルがとても大きいことを考えると、これらのLLMの大きな問題は、コンテキストウィンドウのサイズが限られていることであり、「これらのLLMは、非常に大きなファイルを処理する。
コード翻訳は、ソースコードをあるPLから別のPLに変換することを目的としている。
本研究では,LLMのコンテキストウィンドウに対するメソッドレベルのプログラム分解の効果を評価し,この手法がコンテキスト外問題により本来不可能であった非常に大きなファイルの翻訳を可能にする方法について検討する。
20のよく知られたjavaプロジェクトと約60Kメソッドから得られた観察から、メソッドレベルのプログラムの分解はLLMの限られたコンテキストウィンドウ問題を99.5%改善することを示唆している。
さらに,メソッドレベルの分解では,各入力フラグメントがコンテキストウインドウの5%しか消費せず,プロンプトエンジニアリングとアウトプットのためのコンテキストスペースを多く残していることを示す。
最後に、メソッドレベルのプログラム分解を行う際に、非常に大きなファイルを翻訳するためのCall Graph(CG)アプローチの有効性を検討する。
関連論文リスト
- Studying and Benchmarking Large Language Models For Log Level Suggestion [49.176736212364496]
大規模言語モデル(LLM)は、様々な領域で研究の焦点となっている。
本稿では,12個のオープンソースLCMのログレベル提案における性能に及ぼす特性と学習パラダイムの影響について検討する。
論文 参考訳(メタデータ) (2024-10-11T03:52:17Z) - Optimizing Token Usage on Large Language Model Conversations Using the Design Structure Matrix [49.1574468325115]
大規模言語モデルは、多くの分野やタスクにおいてユビキタスになる。
トークンの使用を減らすこと、短いコンテキストウィンドウ、限られた出力サイズ、トークンの取り込みと生成に関連するコストといった課題を克服する必要がある。
この作業は、エンジニアリング設計の分野からLLM会話最適化にデザイン構造マトリックスをもたらす。
論文 参考訳(メタデータ) (2024-10-01T14:38:36Z) - Source Code Summarization in the Era of Large Language Models [23.715005053430957]
大規模言語モデル(LLM)は、コード関連のタスクのパフォーマンスを大幅に向上させた。
本稿では,LLMにおけるコード要約の体系的および包括的研究を行う。
論文 参考訳(メタデータ) (2024-07-09T05:48:42Z) - Exploring the Impact of the Output Format on the Evaluation of Large Language Models for Code Translation [8.81447711370817]
我々は、11の人気のある命令付き大規模言語モデル(LLM)の出力を経験的に分析する。
この結果から,プロンプトエンジニアリングと正規表現の戦略的組み合わせにより,モデル生成出力からソースコードを効果的に抽出できることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T21:41:31Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Extending LLMs' Context Window with 100 Samples [42.52554295241792]
LLM(Large Language Models)は、事前訓練されたコンテキストウィンドウを超えて、外挿能力に制限があることが知られている。
最近の研究は回転位置埋め込み(RoPE)を改良してコンテキストウィンドウを拡張しようとしている。
我々は、RoPEのベース周波数の調整と注意ログのスケーリングを組み合わせて、LLMがより大きなコンテキストウインドウに効率的に適応するのに役立つ新しい拡張をRoPEに導入する。
論文 参考訳(メタデータ) (2024-01-13T07:57:01Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Revisiting Prompt Engineering via Declarative Crowdsourcing [16.624577543520093]
大規模言語モデル(LLM)は、テキスト形式でデータを解釈し、生成するのに驚くほど強力ですが、脆弱でエラーを起こします。
私たちは宣言的な急進的なエンジニアリングのビジョンを打ち出した。
ソート、実体分解、計算に関する予備的ケーススタディは、我々のアプローチの可能性を実証している。
論文 参考訳(メタデータ) (2023-08-07T18:04:12Z) - Lost in Translation: A Study of Bugs Introduced by Large Language Models
while Translating Code [5.915447908295047]
コード翻訳における一般LLMとコードLLMの能力について,大規模な実証的研究を行った。
私たちの研究は、3つのベンチマークと2つの実世界のプロジェクトからの1,700のコードサンプルの翻訳に関するものです。
LLMの正しい翻訳は2.1%から47.3%であることがわかった。
論文 参考訳(メタデータ) (2023-08-06T13:33:13Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。