論文の概要: ZS4C: Zero-Shot Synthesis of Compilable Code for Incomplete Code
Snippets using ChatGPT
- arxiv url: http://arxiv.org/abs/2401.14279v1
- Date: Thu, 25 Jan 2024 16:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:09:04.901396
- Title: ZS4C: Zero-Shot Synthesis of Compilable Code for Incomplete Code
Snippets using ChatGPT
- Title(参考訳): ZS4C: ChatGPT を用いた不完全コードスニペット用コンパイル可能コードのゼロショット合成
- Authors: Azmain Kabir, Shaowei Wang, Yuan Tian, Tse-Hsun (Peter) Chen, Muhammad
Asaduzzaman, Wenbin Zhang
- Abstract要約: Q&Aサイトのコードスニペットはコンパイル不可能であり、セマンティックにはコンパイルに不完全である。
非完全コードスニペットからコンパイル可能コードのゼロショット合成を行うための軽量なアプローチであるZS4Cを提案する。
- 参考スコア(独自算出の注目度): 12.720628049721325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Technical question and answering (Q&A) sites such as Stack Overflow have
become an important source for software developers to seek knowledge. However,
code snippets on Q&A sites are usually uncompilable and semantically incomplete
for compilation due to unresolved types and missing dependent libraries, which
raises the obstacle for users to reuse or analyze Q&A code snippets. Prior
approaches either are not designed for synthesizing compilable code or suffer
from a low compilation success rate. To address this problem, we propose ZS4C,
a lightweight approach to perform zero-shot synthesis of compilable code from
incomplete code snippets using Large Language Model (LLM). ZS4C operates in two
stages. In the first stage, ZS4C utilizes an LLM, i.e., ChatGPT, to identify
missing import statements for a given code snippet, leveraging our designed
task-specific prompt template. In the second stage, ZS4C fixes compilation
errors caused by incorrect import statements and syntax errors through
collaborative work between ChatGPT and a compiler. We thoroughly evaluated ZS4C
on a widely used benchmark called StatType-SO against the SOTA approach SnR.
Compared with SnR, ZS4C improves the compilation rate from 63% to 87.6%, with a
39.3% improvement. On average, ZS4C can infer more accurate import statements
than SnR, with an improvement of 6.6% in the F1.
- Abstract(参考訳): Stack Overflowのような技術的疑問と回答(Q&A)サイトは、ソフトウェア開発者が知識を求める上で重要な情報源になっている。
しかしながら、Q&Aサイトのコードスニペットは通常、未解決の型と依存ライブラリが欠如しているため、コンパイルにはコンパイル不可能で意味的に不完全である。
以前のアプローチは、コンパイル可能なコードを合成するために設計されていないか、あるいは低いコンパイル成功率に悩まされている。
この問題に対処するために,Large Language Model (LLM) を用いた不完全なコードスニペットからコンパイル可能コードのゼロショット合成を行う軽量なアプローチであるZS4Cを提案する。
ZS4Cは2段階ある。
最初の段階では、ZS4CはLLM、すなわちChatGPTを使用して、与えられたコードスニペットの欠落したインポートステートメントを特定し、設計したタスク固有のプロンプトテンプレートを活用する。
第2段階では、ZS4CはChatGPTとコンパイラの協調作業を通じて、誤ったインポート文と構文エラーによるコンパイルエラーを修正する。
我々はZS4CをSnRに対するStatType-SOと呼ばれる広く使われているベンチマークで徹底的に評価した。
SnRと比較して、ZS4Cはコンパイル速度を63%から87.6%改善し、39.3%改善した。
平均すると、ZS4CはSnRよりも正確なインポートステートメントを推測でき、F1では6.6%改善されている。
関連論文リスト
- Demystifying and Assessing Code Understandability in Java Decompilation [3.2671789531342457]
機械レベルのコードを可読性のあるソースコードに変換するプロセスである逆コンパイルは、リバースエンジニアリングにおいて重要な役割を果たす。
本稿では,Javaの非コンパイルコードの可読性に関する最初の実証的研究を提案する。
論文 参考訳(メタデータ) (2024-09-30T14:44:00Z) - CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.7413285637879]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - WaDec: Decompiling WebAssembly Using Large Language Model [5.667013605202579]
WebAssembly(略してWasm)がWeb開発の基礎として登場した。
その利点にもかかわらず、Wasmのバイナリの性質は開発者と研究者に重大な課題をもたらしている。
We introduced a novel approach, WaDec, which is a first use of a fine-tuned LLM to interpret and decompile Wasm binary code。
論文 参考訳(メタデータ) (2024-06-17T09:08:30Z) - In-Context Principle Learning from Mistakes [75.66979331850364]
Incontext Learning(ICL)は、いくつかの入力出力例から学習することで、下流タスクにLLMを適用する標準的な方法である。
我々はこのパラダイムを再考し、数少ないインプット・アウトプットの例からより多くを学ぶ。
論文 参考訳(メタデータ) (2024-02-08T04:42:29Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - CoTran: An LLM-based Code Translator using Reinforcement Learning with Feedback from Compiler and Symbolic Execution [6.72474166614441]
既存のコード翻訳法では、翻訳されたコードが確実にコンパイルされるか、入力されたコードに実質的な機能的等価性を持つことを保証するための訓練が欠如している。
本研究では、強化学習、コンパイラフィードバック、シンボリック実行(シンジケート)ベースのテストフィードバックを用いて、LLMを微調整する。
我々は、CoTranと、人書きトランスパイラ、LLMベースの翻訳ツール、ChatGPTを含む14のコード翻訳ツールを比較した広範な実験を行った。
論文 参考訳(メタデータ) (2023-06-11T19:47:52Z) - Syntax-Aware On-the-Fly Code Completion [13.268277642411974]
我々はPyCoderを提案する。トークン型は軽量な構文情報の一種である。
私たちのPyCoderはトークンレベルの予測に対して77.12%の精度でCodeXGLUEのリーダーボードで1位を獲得しました。
論文 参考訳(メタデータ) (2022-11-09T04:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。