論文の概要: Bootstrapping Code-Text Pretrained Language Model to Detect
Inconsistency Between Code and Comment
- arxiv url: http://arxiv.org/abs/2306.06347v1
- Date: Sat, 10 Jun 2023 05:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 03:54:58.160997
- Title: Bootstrapping Code-Text Pretrained Language Model to Detect
Inconsistency Between Code and Comment
- Title(参考訳): コードとコメントの不整合を検出するための事前訓練済み言語モデルのブートストラップ
- Authors: Anh T. V. Dau, Nghi D. Q. Bui, Jin L. C. Guo
- Abstract要約: DocCheckerは、コードとコメントの不一致を検出するツールである。
ノイズの多いコード補完ペアを検出し、合成コメントを生成するように訓練されている。
その効果はJust-In-Timeデータセットで実証されている。
- 参考スコア(独自算出の注目度): 13.804337643709719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Comments on source code serve as critical documentation for enabling
developers to understand the code's functionality and use it properly. However,
it is challenging to ensure that comments accurately reflect the corresponding
code, particularly as the software evolves over time. Although increasing
interest has been taken in developing automated methods for identifying and
fixing inconsistencies between code and comments, the existing methods have
primarily relied on heuristic rules. In this paper, we propose DocChecker, a
deep-learning-based tool to detect the inconsistency between code and comments.
DocChecker is trained to detect noisy code-comment pairs and generate synthetic
comments, enabling it to determine comments that do not match their associated
code snippets and correct them. Its effectiveness is demonstrated on the
Just-In-Time dataset compared with other state-of-the-art methods.
This tool is available at https://github.com/FSoft-AI4Code/DocChecker and
http://4.193.50.237:5000/; the demonstration video can be found on
https://youtu.be/KFbyaSf2I3c.
- Abstract(参考訳): ソースコードに対するコメントは、開発者がコードの機能を理解し、適切に使用できるようにするための重要なドキュメントである。
しかし、特にソフトウェアが時間とともに進化するにつれて、コメントが対応するコードを正確に反映させることは困難である。
コードとコメントの矛盾を識別し修正するための自動化手法の開発には関心が高まっているが、既存の手法は主にヒューリスティックなルールに依存している。
本稿では,コードとコメントの矛盾を検出するディープラーニングツールであるdoccheckerを提案する。
DocCheckerは、ノイズの多いコード補完ペアを検出して合成コメントを生成するように訓練されており、関連するコードスニペットにマッチしないコメントを判断し、修正することができる。
その効果は、他の最先端手法と比較してJust-In-Timeデータセットで実証されている。
このツールはhttps://github.com/FSoft-AI4Code/DocCheckerとhttp://4.193.50.237:5000/で入手できる。
関連論文リスト
- Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - CodeJudge: Evaluating Code Generation with Large Language Models [6.867043179943195]
大規模言語モデル(LLM)は、コード生成において有望なパフォーマンスを示している。
LLMが生成したコードを確実に評価する方法は未解決の問題である。
本稿では,LLMを利用したコード評価フレームワークであるCodeJudgeについて,テストケースを必要とせずに生成したコードの意味的正当性を評価する。
論文 参考訳(メタデータ) (2024-10-03T03:58:03Z) - Code Documentation and Analysis to Secure Software Development [0.0]
CoDATは、さまざまなレベルのコードドキュメント間の一貫性を維持するように設計されたツールである。
Intellij IDEAで実装されている。
私たちは、コードの断片とそれを記述するコメントの間のセマンティックな一貫性をチェックするために、大きな言語モデルを使用します。
論文 参考訳(メタデータ) (2024-07-16T17:25:44Z) - Can It Edit? Evaluating the Ability of Large Language Models to Follow Code Editing Instructions [6.367360745627828]
コード編集タスクのベンチマークを導入し、それをいくつかの最先端LCMの評価に利用する。
我々の評価は、最先端のオープンモデルとクローズドモデルの間の大きなギャップを露呈する。
我々は、自然言語命令と組み合わされたコード編集タスクの新しい、慎重にキュレートされ、パーミッシブにライセンスされたトレーニングデータセットを導入する。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - Augmenting Diffs With Runtime Information [53.22981451758425]
Collector-Sahabは、コード差分をランタイム差分情報で拡張するツールである。
We run Collector-Sahab on 584 code diffs for Defects4J bugs and found it successfully augment the code diff for 95% (555/584)。
論文 参考訳(メタデータ) (2022-12-20T16:33:51Z) - DocCoder: Generating Code by Retrieving and Reading Docs [87.88474546826913]
コードマニュアルとドキュメントを明示的に活用するアプローチであるDocCoderを紹介します。
我々のアプローチは一般的に、どんなプログラミング言語にも適用でき、基礎となるニューラルモデルとは無関係です。
論文 参考訳(メタデータ) (2022-07-13T06:47:51Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。