論文の概要: Neural Machine Translation For Paraphrase Generation
- arxiv url: http://arxiv.org/abs/2006.14223v1
- Date: Thu, 25 Jun 2020 07:38:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 02:36:04.282581
- Title: Neural Machine Translation For Paraphrase Generation
- Title(参考訳): パラフレーズ生成のためのニューラルマシン翻訳
- Authors: Alex Sokolov, Denis Filimonov
- Abstract要約: 本稿では,自然言語の自動生成システムを提案する。
我々のアプローチは、機械翻訳(MT)にインスパイアされたエンコーダ-デコーダディープリカレントニューラルネットワークから成り立っている。
我々は,本モデルがASKスキル,意図,名前付きエンティティ分類精度,文レベルカバレッジに与える影響を評価する。
- 参考スコア(独自算出の注目度): 3.4602954974352347
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Training a spoken language understanding system, as the one in Alexa,
typically requires a large human-annotated corpus of data. Manual annotations
are expensive and time consuming. In Alexa Skill Kit (ASK) user experience with
the skill greatly depends on the amount of data provided by skill developer. In
this work, we present an automatic natural language generation system, capable
of generating both human-like interactions and annotations by the means of
paraphrasing. Our approach consists of machine translation (MT) inspired
encoder-decoder deep recurrent neural network. We evaluate our model on the
impact it has on ASK skill, intent, named entity classification accuracy and
sentence level coverage, all of which demonstrate significant improvements for
unseen skills on natural language understanding (NLU) models, trained on the
data augmented with paraphrases.
- Abstract(参考訳): alexaのように、音声言語理解システムのトレーニングには、通常、大きな人間の注釈によるデータのコーパスが必要です。
手動アノテーションは高価で時間がかかります。
Alexa Skill Kit(ASK)では、スキルを持つユーザエクスペリエンスは、スキル開発者が提供するデータ量に大きく依存する。
本稿では,パラフレージングによって人間的インタラクションとアノテーションの両方を生成できる自動自然言語生成システムを提案する。
我々のアプローチは、機械翻訳(MT)にインスパイアされたエンコーダ-デコーダディープリカレントニューラルネットワークから成り立っている。
我々は,本モデルがASKスキル,意図,名前付きエンティティ分類精度,文レベルカバレッジに与える影響について評価し,自然言語理解(NLU)モデルにおける未知のスキルに対する顕著な改善を示す。
関連論文リスト
- Can Language Models Learn to Listen? [96.01685069483025]
本稿では,話者の言葉に基づく社会的対話における聞き手から適切な表情応答を生成するための枠組みを提案する。
提案手法は,VQ-VAEを用いて定量化したリスナーの顔のジェスチャー列であるリスナーの応答を自己回帰的に予測する。
生成したリスナーの動きは,定量的メトリクスと質的ユーザスタディを通じて,言語意味論に精通し,反映していることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:59:02Z) - Spoken Language Understanding for Conversational AI: Recent Advances and
Future Direction [5.829344935864271]
本チュートリアルでは,Spoken Language Understanding/Natural Language Understanding (SLU/NLU) とDeep Learning技術を紹介する。
本稿では,最新のNLPおよびDeep Learning技術を用いて共同作業に対処する方法について述べる。
論文 参考訳(メタデータ) (2022-12-21T02:47:52Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z) - Paraphrasing Techniques for Maritime QA system [39.45862109462649]
我々は,人間の自然言語を機械で理解可能な言語に自動翻訳する機能を開発した。
多くの現実世界の防衛シナリオでは、このような大量の訓練データを取得することは不可能である。
本研究では,大規模学習データセットの自動生成にパラフレージング手法を利用する方法について検討する。
論文 参考訳(メタデータ) (2022-03-21T10:20:30Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Understanding and Enhancing the Use of Context for Machine Translation [2.367786892039871]
この論文は、ニューラルモデルにおけるコンテキストの特定の可能性を理解し、それらから恩恵を受ける拡張モデルを設計することに焦点を当てている。
ソース言語からターゲット言語に翻訳するには、神経モデルは与えられたコンテキストにおける構成語の意味を理解する必要があります。
NLP分野を進めるためには、コンテキストの役割と学習モデルに対するデータの影響をより深く検討することが不可欠です。
論文 参考訳(メタデータ) (2021-02-20T20:19:27Z) - Continuous Learning in Neural Machine Translation using Bilingual
Dictionaries [14.058642647656301]
ニューラルマシン翻訳の新たなフレーズを継続的に学習する能力を評価するための評価フレームワークを提案する。
両方の課題に対処することで、新しいまれな単語やフレーズを30%から70%に翻訳する能力を改善することができます。
論文 参考訳(メタデータ) (2021-02-12T14:46:13Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。