論文の概要: Automatic Comment Generation via Multi-Pass Deliberation
- arxiv url: http://arxiv.org/abs/2209.06634v1
- Date: Wed, 14 Sep 2022 13:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:50:28.345765
- Title: Automatic Comment Generation via Multi-Pass Deliberation
- Title(参考訳): マルチパス審議によるコメント自動生成
- Authors: Fangwen Mu, Xiao Chen, Lin Shi, Song Wang, Qing Wang
- Abstract要約: 熟考は人間の日常生活において一般的で自然な行動である。
自動コメント生成のためのマルチパス検討フレームワークであるDECOMを提案する。
提案手法は,Java (87K) と Python (108K) の2つの実世界のデータセットに対して評価される。
- 参考スコア(独自算出の注目度): 16.46649084799433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deliberation is a common and natural behavior in human daily life. For
example, when writing papers or articles, we usually first write drafts, and
then iteratively polish them until satisfied. In light of such a human
cognitive process, we propose DECOM, which is a multi-pass deliberation
framework for automatic comment generation. DECOM consists of multiple
Deliberation Models and one Evaluation Model. Given a code snippet, we first
extract keywords from the code and retrieve a similar code fragment from a
pre-defined corpus. Then, we treat the comment of the retrieved code as the
initial draft and input it with the code and keywords into DECOM to start the
iterative deliberation process. At each deliberation, the deliberation model
polishes the draft and generates a new comment. The evaluation model measures
the quality of the newly generated comment to determine whether to end the
iterative process or not. When the iterative process is terminated, the
best-generated comment will be selected as the target comment. Our approach is
evaluated on two real-world datasets in Java (87K) and Python (108K), and
experiment results show that our approach outperforms the state-of-the-art
baselines. A human evaluation study also confirms the comments generated by
DECOM tend to be more readable, informative, and useful.
- Abstract(参考訳): 議論は人間の日常生活において一般的で自然な行動である。
例えば、論文や記事を書くとき、私たちは通常、ドラフトを書き、それを満足するまで反復的に磨く。
このような人間の認知プロセスを考慮して,自動コメント生成のためのマルチパス検討フレームワークであるDECOMを提案する。
DECOMは複数の検討モデルと1つの評価モデルで構成される。
コードスニペットが与えられたら、まずコードからキーワードを抽出し、事前定義されたコーパスから同様のコードフラグメントを取得します。
次に、検索したコードのコメントを初期ドラフトとして扱い、コードとキーワードをDeCOMに入力し、反復的な検討プロセスを開始する。
各審議において、審議モデルは草案を磨き、新たなコメントを生成する。
評価モデルは、新たに生成されたコメントの品質を測定し、反復処理を終了するか否かを決定する。
反復処理が終了すると、最適生成されたコメントが対象コメントとして選択される。
提案手法は,Java (87K) とPython (108K) の2つの実世界のデータセットで評価され,実験結果から,我々のアプローチが最先端のベースラインより優れていることが示された。
人間の評価調査では、DeCOMが生成したコメントはより読みやすく、情報的で、役に立つ傾向があることも確認されている。
関連論文リスト
- Deep Assessment of Code Review Generation Approaches: Beyond Lexical Similarity [27.92468098611616]
コードレビューを評価するための2つの新しいセマンティックベースのアプローチを提案する。
最初のアプローチでは、生成されたレビューと参照の両方をディープラーニングモデルを使用してデジタルベクトルに変換する。
2つ目のアプローチは、生成されたレビューとその参照に基づいてプロンプトを生成し、このプロンプトをChatGPTに送信し、生成されたレビューを評価するためにChatGPTを要求する。
論文 参考訳(メタデータ) (2025-01-09T11:52:32Z) - Self-Consistent Decoding for More Factual Open Responses [28.184313177333642]
Sample & Selectは、DoLA、P-CRR、S-CRRのデコーダに対して、30%の相対的なマージンで事実性を向上する。
生成した要約の人間による検証を収集し,本手法の実際的優位性を確認する。
論文 参考訳(メタデータ) (2024-03-01T17:31:09Z) - REST: Retrieval-Based Speculative Decoding [69.06115086237207]
本稿では,言語モデル生成の高速化を目的とした新しいアルゴリズムであるRetrieval-Based Speculative Decoding(REST)を紹介する。
投機的復号化のためのドラフト言語モデルに依存する従来の方法とは異なり、RESTは検索の力を利用してドラフトトークンを生成する。
単一バッチ環境で7Bと13Bの言語モデルでベンチマークすると、RESTはコードやテキスト生成において1.62Xから2.36Xの大幅なスピードアップを達成する。
論文 参考訳(メタデータ) (2023-11-14T15:43:47Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Attributable and Scalable Opinion Summarization [79.87892048285819]
我々は、頻繁なエンコーディングを復号することで抽象的な要約を生成し、同じ頻繁なエンコーディングに割り当てられた文を選択して抽出的な要約を生成する。
本手法は,要約プロセスの一部として要約を生成するために使用される文を同定するため,帰属的手法である。
なぜなら、アグリゲーションはトークンの長いシーケンスではなく、潜在空間で実行されるからである。
論文 参考訳(メタデータ) (2023-05-19T11:30:37Z) - CodeExp: Explanatory Code Document Generation [94.43677536210465]
既存のコード・トゥ・テキスト生成モデルは、コードの高レベルな要約のみを生成する。
我々は、コードのための高品質な説明記述の基準を特定するために、人間の研究を行う。
タスクのための多段階微調整戦略とベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-11-25T18:05:44Z) - Interactive Code Generation via Test-Driven User-Intent Formalization [60.90035204567797]
大きな言語モデル(LLM)は、非公式な自然言語(NL)の意図からコードを生成する。
自然言語は曖昧であり、形式的な意味論が欠けているため、正確性の概念を定義するのは難しい。
言語に依存しない抽象アルゴリズムと具体的な実装TiCoderについて述べる。
論文 参考訳(メタデータ) (2022-08-11T17:41:08Z) - Code Comment Inconsistency Detection with BERT and Longformer [9.378041196272878]
ソースコードの自然言語記述であるコメントは、ソフトウェア開発者の間で標準的なプラクティスである。
コメントに付随する修正を加えずにコードを変更すると、コメントとコードの間に矛盾が生じます。
本研究では,自然言語推論(NLI)の文脈における不整合を検出するための2つのモデルを提案する。
論文 参考訳(メタデータ) (2022-07-29T02:43:51Z) - Retrieve and Refine: Exemplar-based Neural Comment Generation [27.90756259321855]
同様のコードスニペットのコメントはコメントの生成に役立ちます。
我々は、与えられたコード、AST、類似したコード、そして入力として見劣りする新しいセク2seqニューラルネットワークを設計する。
約200万のサンプルを含む大規模Javaコーパスに対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-10-09T09:33:10Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。