論文の概要: How do Developers Improve Code Readability? An Empirical Study of Pull
Requests
- arxiv url: http://arxiv.org/abs/2309.02594v1
- Date: Tue, 5 Sep 2023 21:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 09:04:52.016016
- Title: How do Developers Improve Code Readability? An Empirical Study of Pull
Requests
- Title(参考訳): コードの可読性をどのように改善するか?
プルリクエストに関する実証的研究
- Authors: Carlos Eduardo C. Dantas and Adriano M. Rocha and Marcelo A. Maia
- Abstract要約: 私たちは、109のGitHubリポジトリの下で284のMerged Pull Requests(PR)から370のコード可読性の改善を集めています。
26種類のコード可読性を改善したカタログを作成しました。
驚いたことに、SonarQubeは370のコード可読性の改善のうち26だけを検出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Readability models and tools have been proposed to measure the effort to read
code. However, these models are not completely able to capture the quality
improvements in code as perceived by developers. To investigate possible
features for new readability models and production-ready tools, we aim to
better understand the types of readability improvements performed by developers
when actually improving code readability, and identify discrepancies between
suggestions of automatic static tools and the actual improvements performed by
developers. We collected 370 code readability improvements from 284 Merged Pull
Requests (PRs) under 109 GitHub repositories and produce a catalog with 26
different types of code readability improvements, where in most of the
scenarios, the developers improved the code readability to be more intuitive,
modular, and less verbose. Surprisingly, SonarQube only detected 26 out of the
370 code readability improvements. This suggests that some of the catalog
produced has not yet been addressed by SonarQube rules, highlighting the
potential for improvement in Automatic static analysis tools (ASAT) code
readability rules as they are perceived by developers.
- Abstract(参考訳): コードを読む労力を測定するために、可読性モデルとツールが提案されている。
しかし、これらのモデルは開発者が認識するコードの品質改善を完全に捉えることはできない。
新たな可読性モデルと本番対応ツールの可能性を検討するため,コード可読性を改善する際に開発者が実行する可読性の改善のタイプをよりよく理解し,自動静的ツールの提案と開発者による実際の改善との相違点を特定することを目的とした。
109のgithubリポジトリの下で284のマージプルリクエスト(prs)から370のコード可読性の改善を収集し、26種類のコード可読性改善を備えたカタログを作成しました。
驚いたことに、SonarQubeは370のコード可読性の改善のうち26だけを検出した。
これは、生成したカタログのいくつかがSonarQubeルールによってまだ対処されていないことを示唆しており、開発者が認識する自動静的解析ツール(ASAT)コード可読性ルールの改善の可能性を強調している。
関連論文リスト
- AI-powered Code Review with LLMs: Early Results [10.37036924997437]
本稿では,Large Language Model (LLM) ベースのモデルを用いて,ソフトウェアの品質と効率を改善する新しい手法を提案する。
提案するLLMベースのAIエージェントモデルは,大規模コードリポジトリ上でトレーニングされている。
コードの臭いを検出し、潜在的なバグを特定し、改善の提案を提供し、コードを最適化することを目的としている。
論文 参考訳(メタデータ) (2024-04-29T08:27:50Z) - InfiCoder-Eval: Systematically Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiCoder-Evalは、コードのQAベンチマークである。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiCoder-Eval 上で 80 以上のコード LLM に対して,系統的な評価を行い,一連の知見を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [69.99031792995348]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Frustrated with Code Quality Issues? LLMs can Help! [7.67768651817923]
静的解析ツールは、コード品質の問題にフラグを付けるために開発者に使われます。
開発者は、ツールの発見に基づいてコード品質を改善するために、コードを修正するために余分な労力を費やす必要がある。
コード品質の問題を解決するためのコード修正を支援するツールであるCORE(COde Revisionsの略)を提案する。
論文 参考訳(メタデータ) (2023-09-22T15:37:07Z) - Automated Code Editing with Search-Generate-Modify [24.96672652375192]
本稿では,コード検索,生成,修正のパワーを活用して,コード編集をより良く合成するためのハイブリッドアプローチを提案する。
SARGAMは、実際の開発者のコード編集動作を模倣するように設計された新しいツールである。
論文 参考訳(メタデータ) (2023-06-10T17:11:21Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - Code Execution with Pre-trained Language Models [88.04688617516827]
コードインテリジェンスのトレーニング済みモデルのほとんどは実行トレースを無視しており、ソースコードと構文構造のみに依存している。
我々は,大規模かつ現実的なPythonデータセットとコード実行タスクを作成するために,突然変異に基づくデータ拡張手法を開発した。
次に、コード実行事前学習とカリキュラム学習を活用して意味理解を強化するトランスフォーマーモデルであるCodeExecutorを提案する。
論文 参考訳(メタデータ) (2023-05-08T10:00:05Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - Towards Generating Functionally Correct Code Edits from Natural Language
Issue Descriptions [11.327913840111378]
Defects4J-NL2Fixは、人気のあるDefects4Jデータセットから283のJavaプログラムのデータセットで、バグ修正の高レベルな記述を付加します。
本研究は,この課題に対するいくつかの最先端LCMの性能を実証的に評価する。
論文 参考訳(メタデータ) (2023-04-07T18:58:33Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。