論文の概要: NL-Debugging: Exploiting Natural Language as an Intermediate Representation for Code Debugging
- arxiv url: http://arxiv.org/abs/2505.15356v1
- Date: Wed, 21 May 2025 10:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.511337
- Title: NL-Debugging: Exploiting Natural Language as an Intermediate Representation for Code Debugging
- Title(参考訳): NLデバッグ: コードデバッグの中間表現として自然言語を爆発させる
- Authors: Weiming Zhang, Qingyao Li, Xinyi Dai, Jizheng Chen, Kounianhua Du, Weinan Zhang, Weiwen Liu, Yasheng Wang, Ruiming Tang, Yong Yu,
- Abstract要約: 大規模言語モデル(LLM)の最近の進歩は、コード関連タスクを強化するために自然言語推論を活用することに注意を向けている。
本稿では,自然言語を中間表現として用い,コード改善のための新しいフレームワークであるNL-GINGを紹介する。
- 参考スコア(独自算出の注目度): 68.42255321759062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Debugging is a critical aspect of LLM's coding ability. Early debugging efforts primarily focused on code-level analysis, which often falls short when addressing complex programming errors that require a deeper understanding of algorithmic logic. Recent advancements in large language models (LLMs) have shifted attention toward leveraging natural language reasoning to enhance code-related tasks. However, two fundamental questions remain unanswered: What type of natural language format is most effective for debugging tasks? And what specific benefits does natural language reasoning bring to the debugging process? In this paper, we introduce NL-DEBUGGING, a novel framework that employs natural language as an intermediate representation to improve code debugging. By debugging at a natural language level, we demonstrate that NL-DEBUGGING outperforms traditional debugging methods and enables a broader modification space through direct refinement guided by execution feedback. Our findings highlight the potential of natural language reasoning to advance automated code debugging and address complex programming challenges.
- Abstract(参考訳): デバッグはLLMのコーディング能力の重要な側面である。
初期のデバッグの取り組みは主にコードレベルの分析に重点を置いており、アルゴリズム論理の深い理解を必要とする複雑なプログラミングエラーに対処する場合にしばしば不足する。
大規模言語モデル(LLM)の最近の進歩は、コード関連タスクを強化するために自然言語推論を活用することに注意を向けている。
しかしながら、2つの基本的な質問は未解決のままである。 どんな自然言語形式がデバッグタスクに最も効果的か?
そして、自然言語推論がデバッグプロセスにどのようなメリットをもたらすのか?
本稿では,自然言語を中間表現として用い,コードデバッグを改善する新しいフレームワークであるNL-DEBUGINGを紹介する。
自然言語レベルでのデバッグにより、NL-DEBUGGINGは従来のデバッグ方法よりも優れており、実行フィードバックによって誘導される直接改善により、より広い修正空間を可能にすることを示す。
我々の発見は、自動コードデバッグを進歩させ、複雑なプログラミング課題に対処する自然言語推論の可能性を強調した。
関連論文リスト
- MdEval: Massively Multilingual Code Debugging [37.48700033342978]
18のプログラミング言語の3.6Kテストサンプルを含む,最初の大規模多言語デバッグベンチマークを提案する。
本稿では, MDEVAL-INSTRUCT 命令コーパスを導入し, 正しい多言語クエリとソリューションにバグを注入する。
MDEVALにおける実験により,オープンソースモデルとクローズドソースLLM間の顕著な性能差が明らかになった。
論文 参考訳(メタデータ) (2024-11-04T17:36:40Z) - Synthetic Programming Elicitation for Text-to-Code in Very Low-Resource Programming and Formal Languages [21.18996339478024]
SPEAC(emphsynthetic programming elicitation and compilation)を紹介する。
SPEACは、より頻繁に、意味的正しさを犠牲にすることなく、構文的に正しいプログラムを生成する。
UCLID5形式検証言語のケーススタディにおいて,SPEACの性能を実証的に評価した。
論文 参考訳(メタデータ) (2024-06-05T22:16:19Z) - AIOS Compiler: LLM as Interpreter for Natural Language Programming and Flow Programming of AI Agents [38.580779075892636]
我々は、コード表現と実行(CoRE)のための新しいシステムを開発する。
提案システムは,自然言語プログラミング,擬似コードプログラミング,フロープログラミングを同一表現で統合し,言語エージェントを構築する。
実行中に、冗長性を最小化するために外部メモリを組み込む。
論文 参考訳(メタデータ) (2024-05-11T04:29:03Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Natural Language Embedded Programs for Hybrid Language Symbolic Reasoning [84.12154024070024]
本研究では,数学・記号的推論,自然言語理解,後続の課題に対処するための統合フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
論文 参考訳(メタデータ) (2023-09-19T17:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。