論文の概要: How do Developers Improve Code Readability? An Empirical Study of Pull
Requests
- arxiv url: http://arxiv.org/abs/2309.02594v1
- Date: Tue, 5 Sep 2023 21:31:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 09:04:52.016016
- Title: How do Developers Improve Code Readability? An Empirical Study of Pull
Requests
- Title(参考訳): コードの可読性をどのように改善するか?
プルリクエストに関する実証的研究
- Authors: Carlos Eduardo C. Dantas and Adriano M. Rocha and Marcelo A. Maia
- Abstract要約: 私たちは、109のGitHubリポジトリの下で284のMerged Pull Requests(PR)から370のコード可読性の改善を集めています。
26種類のコード可読性を改善したカタログを作成しました。
驚いたことに、SonarQubeは370のコード可読性の改善のうち26だけを検出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Readability models and tools have been proposed to measure the effort to read
code. However, these models are not completely able to capture the quality
improvements in code as perceived by developers. To investigate possible
features for new readability models and production-ready tools, we aim to
better understand the types of readability improvements performed by developers
when actually improving code readability, and identify discrepancies between
suggestions of automatic static tools and the actual improvements performed by
developers. We collected 370 code readability improvements from 284 Merged Pull
Requests (PRs) under 109 GitHub repositories and produce a catalog with 26
different types of code readability improvements, where in most of the
scenarios, the developers improved the code readability to be more intuitive,
modular, and less verbose. Surprisingly, SonarQube only detected 26 out of the
370 code readability improvements. This suggests that some of the catalog
produced has not yet been addressed by SonarQube rules, highlighting the
potential for improvement in Automatic static analysis tools (ASAT) code
readability rules as they are perceived by developers.
- Abstract(参考訳): コードを読む労力を測定するために、可読性モデルとツールが提案されている。
しかし、これらのモデルは開発者が認識するコードの品質改善を完全に捉えることはできない。
新たな可読性モデルと本番対応ツールの可能性を検討するため,コード可読性を改善する際に開発者が実行する可読性の改善のタイプをよりよく理解し,自動静的ツールの提案と開発者による実際の改善との相違点を特定することを目的とした。
109のgithubリポジトリの下で284のマージプルリクエスト(prs)から370のコード可読性の改善を収集し、26種類のコード可読性改善を備えたカタログを作成しました。
驚いたことに、SonarQubeは370のコード可読性の改善のうち26だけを検出した。
これは、生成したカタログのいくつかがSonarQubeルールによってまだ対処されていないことを示唆しており、開発者が認識する自動静的解析ツール(ASAT)コード可読性ルールの改善の可能性を強調している。
関連論文リスト
- Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - Learning Code Preference via Synthetic Evolution [20.897742297490275]
合成進化データからペアワイズコードの選好モデルを学習するためのフレームワークであるCodeFavorを提案する。
評価の結果、CodeFavorはモデルベースのコード優先の精度を最大28.8%改善した。
CodeFavorモデルは、34倍のコスト効率で、6-9倍のパラメータでモデルのパフォーマンスと一致させることができる。
論文 参考訳(メタデータ) (2024-10-04T18:05:22Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - Assessing Consensus of Developers' Views on Code Readability [3.798885293742468]
開発者はコードレビューに多くの時間を費やし、コード理解におけるコード可読性の重要性を強調している。
以前の調査では、既存のコード可読性モデルは開発者の考えを表現する上で不正確であった。
同じようなコーディング経験を持つ10人のJava開発者を調査して、コード可読性評価と関連する側面について、彼らのコンセンサスを評価しました。
論文 参考訳(メタデータ) (2024-07-04T09:54:42Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - Frustrated with Code Quality Issues? LLMs can Help! [7.67768651817923]
静的解析ツールは、コード品質の問題にフラグを付けるために開発者に使われます。
開発者は、ツールの発見に基づいてコード品質を改善するために、コードを修正するために余分な労力を費やす必要がある。
コード品質の問題を解決するためのコード修正を支援するツールであるCORE(COde Revisionsの略)を提案する。
論文 参考訳(メタデータ) (2023-09-22T15:37:07Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。