論文の概要: Delexicalized Paraphrase Generation
- arxiv url: http://arxiv.org/abs/2012.02763v1
- Date: Fri, 4 Dec 2020 18:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 01:04:17.298230
- Title: Delexicalized Paraphrase Generation
- Title(参考訳): delexicalized paraphrase generation
- Authors: Boya Yu, Konstantine Arkoudas, Wael Hamza
- Abstract要約: パラフレーズ化のためのニューラルモデルを提案し,デレクシカル化文を生成するよう訓練する。
我々は、各入力に複数の参照パラフレーズをペア付けしたトレーニングデータを作成することで、これを実現する。
生成したパラフレーズが高品質であることが実証的に示され, 実発話における1.29%の正確な一致が得られた。
- 参考スコア(独自算出の注目度): 7.504832901086077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a neural model for paraphrasing and train it to generate
delexicalized sentences. We achieve this by creating training data in which
each input is paired with a number of reference paraphrases. These sets of
reference paraphrases represent a weak type of semantic equivalence based on
annotated slots and intents. To understand semantics from different types of
slots, other than anonymizing slots, we apply convolutional neural networks
(CNN) prior to pooling on slot values and use pointers to locate slots in the
output. We show empirically that the generated paraphrases are of high quality,
leading to an additional 1.29% exact match on live utterances. We also show
that natural language understanding (NLU) tasks, such as intent classification
and named entity recognition, can benefit from data augmentation using
automatically generated paraphrases.
- Abstract(参考訳): パラフレーズ化のためのニューラルモデルを提案し,デレクシカル化文を生成するよう訓練する。
各入力に複数の参照パラフレーズをペアにしたトレーニングデータを作成することで、これを実現する。
これらの参照パラフラスは、注釈付きスロットとインテントに基づく意味同値の弱いタイプを表す。
スロットの匿名化以外の異なるタイプのスロットからのセマンティクスを理解するために、スロット値のプールの前に畳み込みニューラルネットワーク(cnn)を適用し、出力中のスロットを見つけるためにポインタを使用する。
実験の結果,生成したパラフレーズは高品質であり,さらに1.29%の正確な一致が得られた。
また,自然言語理解(nlu)タスク,例えばインテント分類や名前付きエンティティ認識は,自動生成パラフレーズを用いたデータ拡張の恩恵を受けることを示す。
関連論文リスト
- Neural paraphrasing by automatically crawled and aligned sentence pairs [11.95795974003684]
ニューラルネットワークベースのパラフレーズ化に対する主な障害は、一致した文とパラフレーズのペアを持つ大きなデータセットの欠如である。
本稿では,ニュースサイトやブログサイトが,異なる物語スタイルを用いて同じ出来事を語るという仮定に基づいて,大規模コーパスの自動生成手法を提案する。
本稿では,言語制約のある類似性探索手法を提案する。これは,参照文が与えられた場合,数百万のインデックス付き文から最も類似した候補パラフレーズを見つけることができる。
論文 参考訳(メタデータ) (2024-02-16T10:40:38Z) - Continuously Learning New Words in Automatic Speech Recognition [56.972851337263755]
本稿では,新たな単語認識のための自己教師付き連続学習手法を提案する。
過去の研究から,メモリ拡張型自動音声認識モデルを用いた。
提案手法により,新たな単語の出現頻度が高くなると,新たな単語のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-01-09T10:39:17Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - Short-Term Word-Learning in a Dynamically Changing Environment [63.025297637716534]
本稿では、単語/フレーズメモリと、このメモリにアクセスして単語やフレーズを正しく認識するためのメカニズムを用いて、エンドツーエンドのASRシステムを補完する方法を示す。
誤報がわずかに増加しただけで, 単語の検出速度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-29T10:05:39Z) - Learning Rich Representation of Keyphrases from Text [12.698835743464313]
テキスト文書からキーフレーズの表現を豊かに学習することを目的としたタスク固有言語モデルの学習方法を示す。
差別的設定では、新しい事前学習目標である、KBIR(Keyphrase boundary Infilling with Replacement)を導入する。
生成設定では、入力テキストに関連するキーフレーズをCatSeqフォーマットで再現する、BART-KeyBARTの新しい事前学習設定を導入する。
論文 参考訳(メタデータ) (2021-12-16T01:09:51Z) - Improving Paraphrase Detection with the Adversarial Paraphrasing Task [0.0]
パラフレーズデータセットは現在、単語の重複と構文に基づくパラフレーズの感覚に依存している。
パラフレーズ識別のための新しいデータセット生成法: 逆パラフレーズ処理タスク(APT)について紹介する。
APTは参加者に意味論的に等価(相互に意味的)であるが、語彙的にも構文的にも異なるパラフレーズを生成するよう要求する。
論文 参考訳(メタデータ) (2021-06-14T18:15:20Z) - Factorising Meaning and Form for Intent-Preserving Paraphrasing [59.13322531639124]
本稿では,本来の意図を保ちつつ,異なる表面形状を用いる英語質問のパラフレーズを生成する手法を提案する。
我々のモデルは、訓練対象の慎重な選択と原則化された情報のボトルネックを組み合わせる。
従来の手法に比べて意味的保存と構文的ノベルティのトレードオフが良好であるパラフレーズを生成することができる。
論文 参考訳(メタデータ) (2021-05-31T15:37:38Z) - Linguistically-Enriched and Context-Aware Zero-shot Slot Filling [6.06746295810681]
スロット充填は、現代のタスク指向ダイアログシステムの最も重要な課題の1つです。
新たなドメイン(すなわち、トレーニングの見当たらない)がデプロイ後に出現する可能性がある。
モデルがシームレスに適応し、見えないドメインと見えないドメインの両方からスロットを埋めることは必須である。
論文 参考訳(メタデータ) (2021-01-16T20:18:16Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Keyphrase Extraction with Span-based Feature Representations [13.790461555410747]
キーフレーズは、文書を特徴付ける意味メタデータを提供することができる。
キーフレーズ抽出のための3つのアプローチ: (i) 従来の2段階ランキング法、 (ii) シーケンスラベリング、 (iii) ニューラルネットワークを用いた生成。
本稿では,すべてのコンテンツトークンから直接,キーフレーズのスパン的特徴表現を抽出する新規スパンキーフレーズ抽出モデルを提案する。
論文 参考訳(メタデータ) (2020-02-13T09:48:31Z) - Lexical Sememe Prediction using Dictionary Definitions by Capturing
Local Semantic Correspondence [94.79912471702782]
セメムは人間の言語の最小の意味単位として定義されており、多くのNLPタスクで有用であることが証明されている。
本稿では,このようなマッチングを捕捉し,セメムを予測できるセメム対応プールモデルを提案する。
我々は,有名なSememe KB HowNetのモデルとベースライン手法を評価し,そのモデルが最先端のパフォーマンスを実現することを発見した。
論文 参考訳(メタデータ) (2020-01-16T17:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。