論文の概要: Copilot Refinement: Addressing Code Smells in Copilot-Generated Python
Code
- arxiv url: http://arxiv.org/abs/2401.14176v1
- Date: Thu, 25 Jan 2024 13:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:33:20.841753
- Title: Copilot Refinement: Addressing Code Smells in Copilot-Generated Python
Code
- Title(参考訳): copilotの改善:copilotが生成するpythonコードの臭いに対処する
- Authors: Beiqi Zhang, Peng Liang, Qiong Feng, Yujia Fu, Zengyang Li
- Abstract要約: Pythonはコードの臭いがある場合、可読性と保守性が低下する。
大規模言語モデルの最近の進歩は、コード生成と理解の両方のためのAI対応ツールへの関心が高まっている。
GitHub Copilotは、広く使われているツールのひとつだ。
- 参考スコア(独自算出の注目度): 2.5055024547891316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the most popular dynamic languages, Python experiences a decrease
in readability and maintainability when code smells are present. Recent
advancements in Large Language Models have sparked growing interest in
AI-enabled tools for both code generation and refactoring. GitHub Copilot is
one such tool that has gained widespread usage. Copilot Chat, released on
September 2023, functions as an interactive tool aims at facilitating natural
language-powered coding. However, limited attention has been given to
understanding code smells in Copilot-generated Python code and Copilot's
ability to fix the code smells it generates. To this end, we built a dataset
comprising 102 code smells in Copilot-generated Python code. Our aim is to
first explore the occurrence of code smells in Copilot-generated Python code
and then evaluate the effectiveness of Copilot in fixing these code smells
employing different prompts. The results show that 8 out of 10 types of Python
smells can be detected in Copilot-generated Python code, among which
Multiply-Nested Container is the most common one. For these code smells,
Copilot Chat achieves a highest fixing rate of 87.1%, showing promise in fixing
Python code smells generated by Copilot itself. Besides, the effectiveness of
Copilot Chat in fixing these smells can be improved with the provision of more
detailed prompts. However, using Copilot Chat to fix these smells might
introduce new code smells.
- Abstract(参考訳): 最もポピュラーな動的言語の1つとして、Pythonはコードの臭いがあるときに可読性と保守性が低下する。
大規模言語モデルの最近の進歩は、コード生成とリファクタリングの両方のためのAI対応ツールへの関心が高まっている。
GitHub Copilotは、広く使われているツールのひとつだ。
2023年9月にリリースされたCopilot Chatは、自然言語によるコーディングを容易にするインタラクティブツールとして機能する。
しかし、copilotが生成するpythonコードのコードの臭いと、copilotが生成するコードの臭いを修正する能力を理解することには、限られた注意が払われている。
この目的のために、copilotが生成するpythonコードの102のコードの臭いからなるデータセットを構築しました。
目的は、まず、Copilotの生成したPythonコードにおけるコードの臭いの発生を調べ、次に異なるプロンプトを使ってこれらのコードの臭いを修正する際のCopilotの有効性を評価することである。
結果は、Copilotの生成したPythonコードで10種類のPythonの臭いを8つ検出できることを示しており、中でもMultiply-Nested Containerが最も一般的である。
これらのコードの臭いに対して、Copilot Chatは87.1%の最高修正率を獲得し、Copilot自体が生成したPythonコードの臭いを修正することを約束している。
さらに、これらの臭いを修正するためのコピロットチャットの有効性は、より詳細なプロンプトを提供することで改善できる。
しかし、これらの臭いを修正するためにCopilot Chatを使用すると、新しいコードの臭いが発生するかもしれない。
関連論文リスト
- CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.7413285637879]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - Where Are Large Language Models for Code Generation on GitHub? [10.389763758883975]
ChatGPTとCopilotは、GitHub上でコードを生成するために最も頻繁に使用される。
ほとんどのChatGPT/Copilot生成コードスニペットは比較的短く、複雑さが低い。
バグによる修正は、さまざまな言語でわずか3%から8%まで、さらに少ない。
論文 参考訳(メタデータ) (2024-06-27T21:47:27Z) - GitHub Copilot: the perfect Code compLeeter? [3.708656266586145]
本稿では,GitHub Copilotが生成するコード品質をLeetCode問題セットに基づいて評価することを目的とする。
我々は、コード生成段階でのCopilotの信頼性、生成したコードの正確性、およびプログラミング言語への依存性を評価する。
論文 参考訳(メタデータ) (2024-06-17T08:38:29Z) - Exploring the Effect of Multiple Natural Languages on Code Suggestion
Using GitHub Copilot [46.822148186169144]
GitHub Copilotは、プログラム合成を自動化するAI対応ツールである。
最近の研究では、様々なプログラミングタスクにおけるCopilotの能力について広く研究されている。
しかし、異なる自然言語がコード提案に与える影響についてはほとんど分かっていない。
論文 参考訳(メタデータ) (2024-02-02T14:30:02Z) - Demystifying Practices, Challenges and Expected Features of Using GitHub
Copilot [3.655281304961642]
Stack Overflow(SO)とGitHubの議論からデータを収集し分析することで、実証的研究を行った。
私たちは、Copilotで使用されるプログラミング言語、技術、実装された関数、利点、制限、そしてCopilotを使用する際の課題を特定しました。
以上の結果から,Copilotの使用は二重刃の剣のようなもので,使用するかどうかを判断する際には,さまざまな側面を慎重に検討する必要があることが示唆された。
論文 参考訳(メタデータ) (2023-09-11T16:39:37Z) - InterCode: Standardizing and Benchmarking Interactive Coding with
Execution Feedback [50.725076393314964]
標準的な強化学習環境として,インタラクティブコーディングの軽量でフレキシブルで使いやすいフレームワークであるInterCodeを紹介した。
私たちのフレームワークは、言語とプラットフォームに依存しない、自己完結型のDocker環境を使用して、安全で再現可能な実行を提供します。
我々は、異なるプロンプト戦略で構成された複数の最先端LLMを評価することにより、InterCodeの生存性をテストベッドとして示す。
論文 参考訳(メタデータ) (2023-06-26T17:59:50Z) - A Static Evaluation of Code Completion by Large Language Models [65.18008807383816]
単純なプログラミング問題に対するモデル生成コードの機能的正当性を評価するために,実行ベースベンチマークが提案されている。
プログラムを実行せずにエラーを検出するlinterのような静的解析ツールは、コード生成モデルを評価するために十分に研究されていない。
抽象構文木を利用して,Pythonのコード補完における静的エラーを定量化する静的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-05T19:23:34Z) - Level 2 Autonomous Driving on a Single Device: Diving into the Devils of
Openpilot [112.21008828205409]
Comma.aiは、1台のカメラとボードを内蔵した999ドルのアフターマーケットデバイスがL2シナリオを処理する能力を持っていると主張している。
Comma.aiがリリースした全システムのオープンソースソフトウェアとともに、プロジェクトはOpenpilotと名付けられた。
このレポートでは、最新の知見を公開し、産業製品レベルでのエンドツーエンドの自動運転という、新たな視点について光を当てたいと思います。
論文 参考訳(メタデータ) (2022-06-16T13:43:52Z) - Is GitHub's Copilot as Bad as Humans at Introducing Vulnerabilities in
Code? [12.350130201627186]
セキュリティの観点から,Copilot生成したコードの比較実験解析を行った。
われわれは、Copilotが人間の開発者と同じソフトウェア脆弱性をもたらす可能性が高いかどうかを調査する。
論文 参考訳(メタデータ) (2022-04-10T18:32:04Z) - An Empirical Cybersecurity Evaluation of GitHub Copilot's Code
Contributions [8.285068188878578]
GitHub Copilotは、オープンソースのGitHubコードに基づいてトレーニングされた言語モデルである。
コードにはしばしばバグが含まれているため、言語モデルが悪用可能なバグの多いコードから学べることは確かです。
これにより、Copilotのコードコントリビューションのセキュリティに対する懸念が高まる。
論文 参考訳(メタデータ) (2021-08-20T17:30:33Z) - Break-It-Fix-It: Unsupervised Learning for Program Repair [90.55497679266442]
我々は2つの重要なアイデアを持つ新しいトレーニング手法であるBreak-It-Fix-It (BIFI)を提案する。
批判者は、実際の悪い入力でフィクスダーの出力をチェックし、トレーニングデータに良い(固定された)出力を追加する。
これらのアイデアに基づいて、よりペア化されたデータを生成するために、ブレーカとフィクスチャを同時に使用しながら、繰り返し更新する。
BIFIは既存のメソッドより優れており、GitHub-Pythonで90.5%、DeepFixで71.7%の修正精度がある。
論文 参考訳(メタデータ) (2021-06-11T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。