論文の概要: Pointing to Subwords for Generating Function Names in Source Code
- arxiv url: http://arxiv.org/abs/2011.04241v1
- Date: Mon, 9 Nov 2020 08:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:59:58.471053
- Title: Pointing to Subwords for Generating Function Names in Source Code
- Title(参考訳): ソースコード中の関数名生成のためのサブワードへの指示
- Authors: Shogo Fujita, Hidetaka Kamigaito, Hiroya Takamura, Manabu Okumura
- Abstract要約: 入力に低頻度または外語彙のサブワードをコピーする2つの方法を提案する。
改良型F1では,従来の手法よりも改善が見られた。
- 参考スコア(独自算出の注目度): 43.36314933559263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the task of automatically generating a function name from source
code. Existing generators face difficulties in generating low-frequency or
out-of-vocabulary subwords. In this paper, we propose two strategies for
copying low-frequency or out-of-vocabulary subwords in inputs. Our best
performing model showed an improvement over the conventional method in terms of
our modified F1 and accuracy on the Java-small and Java-large datasets.
- Abstract(参考訳): ソースコードから関数名を自動的に生成するタスクに取り組む。
既存のジェネレータは、低頻度または大語彙のサブワードを生成するのが困難である。
本稿では,入力中の低周波または大語彙のサブワードを複写する2つの手法を提案する。
我々の最高のパフォーマンスモデルは、修正されたF1と、Java小およびJava大データセットの正確性の観点から、従来の方法よりも改善されたことを示している。
関連論文リスト
- Reverse-Engineering Decoding Strategies Given Blackbox Access to a
Language Generation System [73.52878118434147]
テキスト生成に使用する復号法をリバースエンジニアリングする手法を提案する。
どのようなデコード戦略が使われたかを検出する能力は、生成されたテキストを検出することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-09-09T18:19:47Z) - EntropyRank: Unsupervised Keyphrase Extraction via Side-Information
Optimization for Language Model-based Text Compression [62.261476176242724]
本稿では,事前学習言語モデル(LM)とシャノンの情報に基づいて,テキストからキーワードやキーワードを抽出する教師なし手法を提案する。
具体的には,LMの条件エントロピーが最も高い句を抽出する。
論文 参考訳(メタデータ) (2023-08-25T14:23:40Z) - Data Augmentation for Low-Resource Keyphrase Generation [46.52115499306222]
キーフレーズ生成(英: Keyphrase generation)とは、任意の記事の内容をいくつかの有能なフレーズ(またはキーフレーズ)に要約するタスクである。
タスクの既存の作業は主に、取得が簡単ではない大規模なアノテートデータセットに依存しています。
我々は、純粋にリソース制約のあるドメインにおいて、キーフレーズの生成に対処するためのデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-05-29T09:20:34Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Position-Invariant Truecasing with a Word-and-Character Hierarchical
Recurrent Neural Network [10.425277173548212]
本稿では,高速で高精度でコンパクトな2階層型単語と文字に基づくリカレントニューラルネットワークモデルを提案する。
また,文中のトークンの位置を無視しながら,真偽化の問題にも対処する。
論文 参考訳(メタデータ) (2021-08-26T17:54:35Z) - A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep
Learning for Source Code [14.904366372190943]
本稿では,識別子の匿名化に基づくOoV(out-of-vocabulary)識別子の処理手法を提案する。
本手法は前処理ステップとして扱えるため,実装が容易である。
提案手法は,2つのコード処理タスクにおいて,変換器の性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-10-23T20:52:46Z) - Select, Extract and Generate: Neural Keyphrase Generation with
Layer-wise Coverage Attention [75.44523978180317]
本稿では,2つの主要成分からなるニューラルキーフレーズ生成モデルであるemphSEG-Netを提案する。
科学的およびWeb文書から得られた7つのキーフレーズ生成ベンチマークの実験結果は、SEG-Netが最先端のニューラル生成手法よりも大きなマージンで優れていることを示している。
論文 参考訳(メタデータ) (2020-08-04T18:00:07Z) - Deep Transformer based Data Augmentation with Subword Units for
Morphologically Rich Online ASR [0.0]
ディープトランスフォーマーモデルは、ASRの言語モデリングタスクにおいて特に強力であることが証明されている。
近年の研究では、ニューラルネットワーク言語モデル(LM)の知識の大部分は、ニューラルテキスト生成に基づくデータ拡張を用いて従来のn-gramに転送可能であることが示されている。
トランスフォーマー生成したテキストによるデータ拡張は、孤立言語ではうまく機能するが、形態的にリッチな言語では語彙が爆発する。
そこで我々は,生成したテキストを統計的に派生したサブワードに再学習する,サブワードベースのニューラルテキスト拡張法を提案する。
論文 参考訳(メタデータ) (2020-07-14T10:22:05Z) - BSDAR: Beam Search Decoding with Attention Reward in Neural Keyphrase
Generation [22.512774028870922]
本研究では,単語レベルとngramレベルの報酬関数に基づくビーム探索復号法を導入し,テスト時にSeq2Seq推論を制約・洗練する。
その結果,提案手法はアルゴリズムのバイアスを克服し,符号化性能を大幅に向上させることができた。
論文 参考訳(メタデータ) (2019-09-17T18:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。