論文の概要: Code to Comment "Translation": Data, Metrics, Baselining & Evaluation
- arxiv url: http://arxiv.org/abs/2010.01410v1
- Date: Sat, 3 Oct 2020 18:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 11:39:22.830131
- Title: Code to Comment "Translation": Data, Metrics, Baselining & Evaluation
- Title(参考訳): 翻訳」にコメントするコード:データ、メトリクス、ベースラインと評価
- Authors: David Gros, Hariharan Sezhiyan, Prem Devanbu, Zhou Yu
- Abstract要約: 本稿では,この課題に対する最近のコード・コンパートメント・データセットについて分析する。
それらをWMT19と比較する。WMT19は、アート自然言語翻訳者の状態のトレーニングに頻繁に使用される標準データセットである。
ソースコードデータとWMT19自然言語データの間には,いくつかの興味深い違いがある。
- 参考スコア(独自算出の注目度): 49.35567240750619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The relationship of comments to code, and in particular, the task of
generating useful comments given the code, has long been of interest. The
earliest approaches have been based on strong syntactic theories of
comment-structures, and relied on textual templates. More recently, researchers
have applied deep learning methods to this task, and specifically, trainable
generative translation models which are known to work very well for Natural
Language translation (e.g., from German to English). We carefully examine the
underlying assumption here: that the task of generating comments sufficiently
resembles the task of translating between natural languages, and so similar
models and evaluation metrics could be used. We analyze several recent
code-comment datasets for this task: CodeNN, DeepCom, FunCom, and DocString. We
compare them with WMT19, a standard dataset frequently used to train state of
the art natural language translators. We found some interesting differences
between the code-comment data and the WMT19 natural language data. Next, we
describe and conduct some studies to calibrate BLEU (which is commonly used as
a measure of comment quality). using "affinity pairs" of methods, from
different projects, in the same project, in the same class, etc; Our study
suggests that the current performance on some datasets might need to be
improved substantially. We also argue that fairly naive information retrieval
(IR) methods do well enough at this task to be considered a reasonable
baseline. Finally, we make some suggestions on how our findings might be used
in future research in this area.
- Abstract(参考訳): コードに対するコメントの関係、特にコードによって有用なコメントを生成するタスクは、長い間関心を集めてきた。
初期のアプローチはコメント構造に関する強い構文理論に基づいており、テキストテンプレートに依存していた。
近年、研究者はこのタスクにディープラーニングの手法を適用し、特に自然言語(ドイツ語から英語など)の翻訳に非常に適していることが知られている、訓練可能な生成翻訳モデルを適用している。
コメント生成のタスクは自然言語間の翻訳のタスクと十分に類似しており、類似したモデルや評価指標が利用できるという前提を慎重に検討する。
このタスクのために、codenn、deepcom、funcom、docstringといった最近のコードコミットデータセットを分析した。
WMT19と比較し、アート自然言語翻訳者の状態のトレーニングに頻繁に使用される標準データセットと比較する。
我々は、コードコミットデータとwmt19自然言語データとの間にいくつかの興味深い違いを発見した。
次に、BLEU(コメント品質の指標として一般的に用いられる)の校正のためのいくつかの研究について述べる。
異なるプロジェクト、同じプロジェクト、同じクラスなどからのメソッドの"アフィニティペア"を同じクラス内で使用すること。
我々はまた、このタスクにおいてかなり単純な情報検索(IR)手法は妥当なベースラインと見なすのに十分であると主張する。
最後に,この領域における今後の研究において,我々の研究成果をどのように活用するかについて提案する。
関連論文リスト
- Leveraging Generative AI: Improving Software Metadata Classification
with Generated Code-Comment Pairs [0.0]
ソフトウェア開発では、コードの理解とコラボレーションを強化する上で、コードコメントが重要な役割を果たす。
本研究では,コードコメントを「有用」あるいは「有用でない」と客観的に分類する課題について論じる。
本稿では,この分類プロセスを自動化するために,コンテキスト化された埋め込み,特にBERTを利用する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-14T12:09:43Z) - Language Models are Universal Embedders [48.12992614723464]
事前学習されたトランスフォーマーデコーダは、限定的な英語データに基づいて微調整された場合、普遍的に埋め込み可能であることを示す。
我々のモデルは、最小限のトレーニングデータにより、異なる埋め込みタスクにおける競争性能を達成する。
これらの結果は、強力な統合インバータを構築するための有望な道の証となる。
論文 参考訳(メタデータ) (2023-10-12T11:25:46Z) - Constructing Multilingual Code Search Dataset Using Neural Machine
Translation [48.32329232202801]
我々は4つの自然言語および4つのプログラミング言語で多言語コード検索データセットを作成する。
その結果,すべての自然言語およびプログラミング言語データで事前学習したモデルが,ほとんどのケースで最善を尽くしていることがわかった。
論文 参考訳(メタデータ) (2023-06-27T16:42:36Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Python Code Generation by Asking Clarification Questions [57.63906360576212]
本稿では,この課題に対して,より斬新で現実的なセットアップを導入する。
我々は、自然言語記述の過小評価は、明確化を問うことで解決できると仮定する。
我々は、生成した合成明確化質問と回答を含む自然言語記述とコードのペアを含む、CodeClarQAという新しいデータセットを収集し、導入する。
論文 参考訳(メタデータ) (2022-12-19T22:08:36Z) - Using Document Similarity Methods to create Parallel Datasets for Code
Translation [60.36392618065203]
あるプログラミング言語から別のプログラミング言語へのソースコードの翻訳は、重要で時間を要する作業です。
本稿では、文書類似性手法を用いて、ノイズの多い並列データセットを作成することを提案する。
これらのモデルは、妥当なレベルのノイズに対して、地上の真実に基づいて訓練されたモデルと相容れない性能を示す。
論文 参考訳(メタデータ) (2021-10-11T17:07:58Z) - CoDesc: A Large Code-Description Parallel Dataset [4.828053113572208]
CoDescは420万のJavaメソッドと自然言語記述からなる大規模な並列データセットです。
広範囲な分析により、データセットから一般的なノイズパターンを特定し、削除する。
このデータセットは、コード検索を最大22%改善し、コード要約における新しい最先端を実現するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-29T05:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。