論文の概要: Enhancing Code Intelligence Tasks with ChatGPT
- arxiv url: http://arxiv.org/abs/2312.15202v1
- Date: Sat, 23 Dec 2023 09:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 19:13:37.484388
- Title: Enhancing Code Intelligence Tasks with ChatGPT
- Title(参考訳): ChatGPTによるコードインテリジェンスタスクの強化
- Authors: Kang Yang, Xinjun Mao, Shangwen Wang, Tanghaoran Zhang, Bo Lin, Yanlin
Wang, Yihao Qin, Zhang Zhang, Xiaoguang Mao
- Abstract要約: ChatGPTの生成したコメントは、人間の参照よりもコードに対するセマンティックな一貫性が優れていることを示している。
広く使われているデータセットであるCodeSearchNetを、ChatGPTで生成されたコメントで再構築します。
以上の結果から,ChatGPTによって事前訓練されたモデルは,コード要約,コード生成,コード翻訳タスクにおいて,そのモデルよりも優れていた。
- 参考スコア(独自算出の注目度): 17.712126698173535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained code models have emerged as crucial tools in various code
intelligence tasks. However, their effectiveness depends on the quality of the
pre-training dataset, particularly the human reference comments, which serve as
a bridge between the programming language and natural language. One significant
challenge is that such comments can become inconsistent with the corresponding
code as the software evolves. This discrepancy can lead to suboptimal training
of the models, decreasing their performances. LLMs have demonstrated superior
capabilities in generating high-quality code comments. In light of that, we try
to tackle the quality issue of the dataset by harnessing the power of LLMs.
Specifically, we raise the question: Can we rebuild the pre-training dataset by
substituting the original comments with LLM-generated ones for more effective
pre-trained code models? To answer the question, we first conduct a
comprehensive evaluation to compare ChatGPT-generated comments with human
reference comments. As existing reference-based metrics treat the reference
comments as gold standards, we introduce two auxiliary tasks as novel
reference-free metrics to assess the quality of comments, i.e., code-comment
inconsistency detection and code search. Experimental results show that
ChatGPT-generated comments demonstrate superior semantic consistency with the
code compared to human references, indicating the potential of utilizing
ChatGPT to enhance the quality of the pre-training dataset. We rebuilt the
widely used dataset, CodeSearchNet, with ChatGPT-generated comments. Subsequent
experiments involve re-pre-training the CodeT5 with our refined
dataset.Evaluation results on four generation tasks and one understanding code
intelligence tasks show that the model pre-trained by ChatGPT-enhanced data
outperforms its counterpart on code summarization, code generation, and code
translation tasks.
- Abstract(参考訳): 事前訓練されたコードモデルは、様々なコードインテリジェンスタスクにおいて重要なツールとして登場した。
しかし、その効果は、事前学習されたデータセット、特にプログラミング言語と自然言語の間の橋渡しとなる人間の参照コメントの品質に依存する。
ひとつの大きな課題は、ソフトウェアが進化するにつれて、そのようなコメントが対応するコードと矛盾する可能性があることです。
この不一致は、モデルの最適下トレーニングにつながり、性能を低下させる。
LLMは高品質なコードコメントを生成する優れた能力を示している。
そこで我々は,LLMのパワーを活用して,データセットの品質問題に挑戦する。
LLM生成したコメントに元のコメントを置換することで、トレーニング済みのデータセットを再構築して、より効果的なトレーニング済みのコードモデルを作ることができますか?
そこで我々はまず,ChatGPT生成したコメントと人間の参照コメントの総合評価を行った。
既存の参照ベースのメトリクスは、参照コメントをゴールド標準として扱うため、コメントの品質を評価するための新しい参照フリーメトリクスとして、2つの補助タスクを導入する。
実験の結果,ChatGPTが生成したコメントは人間の参照よりもコードとのセマンティックな一貫性が優れており,事前学習データセットの品質向上にChatGPTを活用する可能性が示唆された。
広く使われているデータセットであるcodesearchnetをchatgptで生成したコメントで再構築しました。
その後の実験では、改良されたデータセットでCodeT5を再トレーニングし、4つの世代タスクと1つの理解コードインテリジェンスタスクで評価した結果、ChatGPTで強化されたデータによって事前トレーニングされたモデルは、コード要約、コード生成、コード翻訳タスクにおいて、そのモデルよりも優れていた。
関連論文リスト
- Prompting and Fine-tuning Large Language Models for Automated Code Review Comment Generation [5.6001617185032595]
プログラムデータと自然言語データの両方で事前訓練された大きな言語モデルは、コード指向のタスクでうまく機能する傾向にある。
我々は,パラメータ効率,量子化低ランクのオープンソースLarge Language Model (LLM) をコンシューマグレードハードウェア上で微調整し,レビューコメント生成を改善する。
論文 参考訳(メタデータ) (2024-11-15T12:01:38Z) - Automating Patch Set Generation from Code Review Comments Using Large Language Models [2.045040820541428]
5つの人気のあるLarge Language Model(LLM)にコードコンテキストを提供します。
実世界のコードレビューコメントから提案したコード変更(パッチセット)を得る。
生成したパッチセットを人為的なパッチセットの履歴データと比較することにより、各モデルの性能を慎重に評価する。
論文 参考訳(メタデータ) (2024-04-10T02:46:08Z) - Code Needs Comments: Enhancing Code LLMs with Comment Augmentation [91.52444946362547]
本稿では、既存のコードに対するコメントを生成する新しいデータ拡張手法と、自然言語と相関の低いコードデータをフィルタリングするデータフィルタリング戦略を導入する。
我々は3つのコード中心の大規模言語モデルの実験を行い、2つの広く使われているプログラミングスキルベンチマークで一貫した性能向上を観察した。
論文 参考訳(メタデータ) (2024-02-20T13:56:38Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Exploring the Potential of ChatGPT in Automated Code Refinement: An
Empirical Study [0.0]
最先端の言語モデルであるChatGPTは、様々な自然言語処理タスクにおいて印象的なパフォーマンスを示している。
コードレビュータスクにおけるChatGPTの機能を理解するための実証的研究を行った。
その結果,ChatGPTは高いEMとBLEUのスコアを22.78と76.44で達成し,最先端のコードレビューデータセットでは15.50と62.88しか達成していないことがわかった。
論文 参考訳(メタデータ) (2023-09-15T07:41:33Z) - Stochastic Code Generation [1.7205106391379026]
コード生成のために事前訓練された大きな言語モデルは、高品質のショートコードを生成するが、コヒーレントな長いコードを生成するのにしばしば苦労する。
この問題は、長文生成のための言語モデリングにも見られる。
本研究では,この手法をコード生成に適用してコヒーレンスを向上できるかを検討する。
論文 参考訳(メタデータ) (2023-04-14T00:01:05Z) - ReCode: Robustness Evaluation of Code Generation Models [90.10436771217243]
コード生成モデルのための総合的ロバストネス評価ベンチマークであるReCodeを提案する。
ドクストリング、関数と変数名、コード構文、コードフォーマットのコードに特化して、30以上の変換をカスタマイズします。
ヒトのアノテータでは、摂動プロンプトの90%以上が本来のプロンプトの意味を変えていないことが確認された。
論文 参考訳(メタデータ) (2022-12-20T14:11:31Z) - Python Code Generation by Asking Clarification Questions [57.63906360576212]
本稿では,この課題に対して,より斬新で現実的なセットアップを導入する。
我々は、自然言語記述の過小評価は、明確化を問うことで解決できると仮定する。
我々は、生成した合成明確化質問と回答を含む自然言語記述とコードのペアを含む、CodeClarQAという新しいデータセットを収集し、導入する。
論文 参考訳(メタデータ) (2022-12-19T22:08:36Z) - CodeExp: Explanatory Code Document Generation [94.43677536210465]
既存のコード・トゥ・テキスト生成モデルは、コードの高レベルな要約のみを生成する。
我々は、コードのための高品質な説明記述の基準を特定するために、人間の研究を行う。
タスクのための多段階微調整戦略とベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-11-25T18:05:44Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。