論文の概要: Increasing, not Diminishing: Investigating the Returns of Highly
Maintainable Code
- arxiv url: http://arxiv.org/abs/2401.13407v1
- Date: Wed, 24 Jan 2024 12:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 14:44:34.702828
- Title: Increasing, not Diminishing: Investigating the Returns of Highly
Maintainable Code
- Title(参考訳): 増加、減少しない:高度に保守可能なコードのリターンを調査する
- Authors: Markus Borg and Ilyana Pruvost and Enys Mones and Adam Tornhill
- Abstract要約: 一方,コード品質と欠陥数,実装時間との関係について検討する。
回帰分析から導いた値生成モデルを導入し,ベースラインからの相対的変化を探索する。
そこで我々は, 「壊れた窓」 理論の文脈内での知見を議論し, ファイル中のコードの臭いの発生を慎重に防止するよう, 組織に推奨する。
- 参考スコア(独自算出の注目度): 6.031345629422313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding and effectively managing Technical Debt (TD) remains a vital
challenge in software engineering. While many studies on code-level TD have
been published, few illustrate the business impact of low-quality source code.
In this study, we combine two publicly available datasets to study the
association between code quality on the one hand, and defect count and
implementation time on the other hand. We introduce a value-creation model,
derived from regression analyses, to explore relative changes from a baseline.
Our results show that the associations vary across different intervals of code
quality. Furthermore, the value model suggests strong non-linearities at the
extremes of the code quality spectrum. Most importantly, the model suggests
amplified returns on investment in the upper end. We discuss the findings
within the context of the "broken windows" theory and recommend organizations
to diligently prevent the introduction of code smells in files with high churn.
Finally, we argue that the value-creation model can be used to initiate
discussions regarding the return on investment in refactoring efforts.
- Abstract(参考訳): 技術的負債(td)の理解と効果的管理は、ソフトウェアエンジニアリングにおける重要な課題である。
コードレベルのTDに関する多くの研究が公表されているが、低品質のソースコードによるビジネスへの影響を示すものはほとんどない。
本研究では,2つの公開データセットを組み合わせることで,コード品質と欠陥数,実装時間との関係について検討する。
回帰分析から導いた値生成モデルを導入し,ベースラインからの相対的変化を探索する。
その結果,関連性はコード品質の異なる間隔で異なることがわかった。
さらに、値モデルはコード品質スペクトルの極端において強い非線形性を示す。
最も重要なことは、このモデルが上端への投資のリターンを増幅したことを示唆している。
我々は,「壊れた窓」理論の文脈内での知見を議論し,ファイル中のコードの臭いの発生を慎重に防止することを推奨する。
最後に、リファクタリングの取り組みに対する投資の返却に関する議論を始めるために価値創造モデルを利用することができると論じる。
関連論文リスト
- SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [66.51005288743153]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - Quantifying Contamination in Evaluating Code Generation Capabilities of
Language Models [27.24738197172374]
大規模言語モデルは、様々なコード生成ベンチマークで顕著なパフォーマンスを達成した。
これらのベンチマークが事前トレーニングや微調整のデータにリークされる可能性があるため、潜在的な汚染に関する懸念が高まっている。
我々は、人気のあるコード生成ベンチマークとオープントレーニングコーパスの間にかなりの重複があることを示し、トレーニング中に同様のソリューションが見られたベンチマークのサブセットにおいて、モデルの性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-03-06T21:45:35Z) - Improving the Learning of Code Review Successive Tasks with Cross-Task
Knowledge Distillation [1.0878040851638]
本研究では,これらのタスクを同時に処理するために,クロスタスク知識蒸留を利用した新しいディープラーニングアーキテクチャdisCOREVを紹介する。
提案手法は, BLEUスコアによる評価値と, CodeBLEUスコアによるより正確なコード修正値から, より良いレビューコメントを生成する。
論文 参考訳(メタデータ) (2024-02-03T07:02:22Z) - Evaluation of large language models for assessing code maintainability [4.2909314120969855]
10種類の異なるモデルによって生成されたコードのクロスエントロピーと品質面の関係について検討する。
この結果から,LLMが計算したクロスエントロピーは,クラスレベルでの保守性の予測因子であることがわかった。
LLMの複雑さはクロスエントロピーの範囲に影響を与えるが、これは保守性の側面を予測する上で重要な役割を果たす。
論文 参考訳(メタデータ) (2024-01-23T12:29:42Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - Multifidelity Reinforcement Learning with Control Variates [3.2895195535353317]
多くの計算科学や工学の応用において、与えられた入力に対応する興味あるシステムの出力は、異なるコストで異なるレベルの忠実度でクエリすることができる。
本研究では、与えられた制御タスクに対して、異なるレベルの忠実度を持つ複数の環境が存在する場合の強化学習問題について検討する。
状態-作用値関数の推定におけるばらつきを低減するために,低忠実度と高忠実度との相互相関を利用した多忠実度推定器を提案する。
論文 参考訳(メタデータ) (2022-06-10T15:01:37Z) - Detecting and adapting to crisis pattern with context based Deep
Reinforcement Learning [6.224519494738852]
本稿では、2つのサブネットワークで構成された革新的なDRLフレームワークを提案する。
テストセットの結果、このアプローチはMarkowitzのような従来のポートフォリオ最適化手法を大幅に上回っており、現在のCovidのような危機を検出し予測することができる。
論文 参考訳(メタデータ) (2020-09-07T12:11:08Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。