論文の概要: Bootstrapping Code-Text Pretrained Language Model to Detect
Inconsistency Between Code and Comment
- arxiv url: http://arxiv.org/abs/2306.06347v1
- Date: Sat, 10 Jun 2023 05:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 03:54:58.160997
- Title: Bootstrapping Code-Text Pretrained Language Model to Detect
Inconsistency Between Code and Comment
- Title(参考訳): コードとコメントの不整合を検出するための事前訓練済み言語モデルのブートストラップ
- Authors: Anh T. V. Dau, Nghi D. Q. Bui, Jin L. C. Guo
- Abstract要約: DocCheckerは、コードとコメントの不一致を検出するツールである。
ノイズの多いコード補完ペアを検出し、合成コメントを生成するように訓練されている。
その効果はJust-In-Timeデータセットで実証されている。
- 参考スコア(独自算出の注目度): 13.804337643709719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Comments on source code serve as critical documentation for enabling
developers to understand the code's functionality and use it properly. However,
it is challenging to ensure that comments accurately reflect the corresponding
code, particularly as the software evolves over time. Although increasing
interest has been taken in developing automated methods for identifying and
fixing inconsistencies between code and comments, the existing methods have
primarily relied on heuristic rules. In this paper, we propose DocChecker, a
deep-learning-based tool to detect the inconsistency between code and comments.
DocChecker is trained to detect noisy code-comment pairs and generate synthetic
comments, enabling it to determine comments that do not match their associated
code snippets and correct them. Its effectiveness is demonstrated on the
Just-In-Time dataset compared with other state-of-the-art methods.
This tool is available at https://github.com/FSoft-AI4Code/DocChecker and
http://4.193.50.237:5000/; the demonstration video can be found on
https://youtu.be/KFbyaSf2I3c.
- Abstract(参考訳): ソースコードに対するコメントは、開発者がコードの機能を理解し、適切に使用できるようにするための重要なドキュメントである。
しかし、特にソフトウェアが時間とともに進化するにつれて、コメントが対応するコードを正確に反映させることは困難である。
コードとコメントの矛盾を識別し修正するための自動化手法の開発には関心が高まっているが、既存の手法は主にヒューリスティックなルールに依存している。
本稿では,コードとコメントの矛盾を検出するディープラーニングツールであるdoccheckerを提案する。
DocCheckerは、ノイズの多いコード補完ペアを検出して合成コメントを生成するように訓練されており、関連するコードスニペットにマッチしないコメントを判断し、修正することができる。
その効果は、他の最先端手法と比較してJust-In-Timeデータセットで実証されている。
このツールはhttps://github.com/FSoft-AI4Code/DocCheckerとhttp://4.193.50.237:5000/で入手できる。
関連論文リスト
- Can It Edit? Evaluating the Ability of Large Language Models to Follow Code Editing Instructions [6.367360745627828]
コード編集タスクのベンチマークを導入し、それをいくつかの最先端LCMの評価に利用する。
我々の評価は、最先端のオープンモデルとクローズドモデルの間の大きなギャップを露呈する。
我々は、自然言語命令と組み合わされたコード編集タスクの新しい、慎重にキュレートされ、パーミッシブにライセンスされたトレーニングデータセットを導入する。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - RepoCoder: Repository-Level Code Completion Through Iterative Retrieval
and Generation [96.75695811963242]
RepoCoderはリポジトリレベルのコード補完プロセスを合理化するフレームワークである。
類似性ベースのレトリバーと、事前訓練されたコード言語モデルが組み込まれている。
バニラ検索で拡張されたコード補完アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-03-22T13:54:46Z) - Augmenting Diffs With Runtime Information [53.22981451758425]
Collector-Sahabは、コード差分をランタイム差分情報で拡張するツールである。
We run Collector-Sahab on 584 code diffs for Defects4J bugs and found it successfully augment the code diff for 95% (555/584)。
論文 参考訳(メタデータ) (2022-12-20T16:33:51Z) - Code Comment Inconsistency Detection with BERT and Longformer [9.378041196272878]
ソースコードの自然言語記述であるコメントは、ソフトウェア開発者の間で標準的なプラクティスである。
コメントに付随する修正を加えずにコードを変更すると、コメントとコードの間に矛盾が生じます。
本研究では,自然言語推論(NLI)の文脈における不整合を検出するための2つのモデルを提案する。
論文 参考訳(メタデータ) (2022-07-29T02:43:51Z) - DocCoder: Generating Code by Retrieving and Reading Docs [87.88474546826913]
コードマニュアルとドキュメントを明示的に活用するアプローチであるDocCoderを紹介します。
我々のアプローチは一般的に、どんなプログラミング言語にも適用でき、基礎となるニューラルモデルとは無関係です。
論文 参考訳(メタデータ) (2022-07-13T06:47:51Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。