論文の概要: Predict and Use Latent Patterns for Short-Text Conversation
- arxiv url: http://arxiv.org/abs/2010.13982v2
- Date: Mon, 7 Dec 2020 03:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:04:09.453715
- Title: Predict and Use Latent Patterns for Short-Text Conversation
- Title(参考訳): 短文会話における潜在パターンの予測と利用
- Authors: Hung-Ting Chen, Yu-Chieh Chao, Ta-Hsuan Chao, Wei-Yun Ma
- Abstract要約: そこで本研究では,より詳細なセマンティックフォーム(潜時応答や部分音声シーケンスなど)を制御可能なセマンティックスとして使用し,生成を導くことを提案する。
以上の結果から,よりリッチなセマンティクスは情報的かつ多様な応答を提供するだけでなく,応答品質の全体的な性能を向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 5.757975605648179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many neural network models nowadays have achieved promising performances in
Chit-chat settings. The majority of them rely on an encoder for understanding
the post and a decoder for generating the response. Without given assigned
semantics, the models lack the fine-grained control over responses as the
semantic mapping between posts and responses is hidden on the fly within the
end-to-end manners. Some previous works utilize sampled latent words as a
controllable semantic form to drive the generated response around the work, but
few works attempt to use more complex semantic patterns to guide the
generation. In this paper, we propose to use more detailed semantic forms,
including latent responses and part-of-speech sequences sampled from the
corresponding distributions, as the controllable semantics to guide the
generation. Our results show that the richer semantics are not only able to
provide informative and diverse responses, but also increase the overall
performance of response quality, including fluency and coherence.
- Abstract(参考訳): 現在、多くのニューラルネットワークモデルは、Chit-chat設定で有望なパフォーマンスを実現している。
大多数は、投稿を理解するためのエンコーダと、レスポンスを生成するためのデコーダに依存しています。
割り当てられたセマンティクスがなければ、投稿とレスポンス間のセマンティクスマッピングがエンドツーエンドのやり方でハエに隠されるため、モデルにはレスポンスに対するきめ細かい制御が欠けている。
以前の研究では、サンプル潜在単語を制御可能なセマンティックフォームとして使用して、作業のまわりで生成された応答を駆動していたが、より複雑なセマンティックパターンを使用して生成を誘導しようとする研究はほとんどなかった。
本稿では,その生成を誘導する制御可能なセマンティクスとして,対応する分布からサンプリングされた潜在応答や部分音声シーケンスを含む,より詳細なセマンティクス形式を提案する。
その結果,よりリッチなセマンティクスは,情報的かつ多様な応答を提供するだけでなく,フラレンスやコヒーレンスを含む応答品質の全体的な性能を向上させることができることがわかった。
関連論文リスト
- Vector-Quantized Prompt Learning for Paraphrase Generation [18.40940464497253]
本稿では、事前学習されたモデルにインスタンス依存のプロンプトを組み込むことにより、多種多様な高品質なパラフレーズを生成することを提案する。
大規模な実験により,提案手法は3つのベンチマークデータセットに対して新たな最先端結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-25T07:13:06Z) - A Template-guided Hybrid Pointer Network for
Knowledge-basedTask-oriented Dialogue Systems [15.654119998970499]
本稿では,知識に基づくタスク指向対話システムのためのテンプレート誘導型ハイブリッドポインタネットワークを提案する。
本研究では,ゲーティング機構を備えたメモリポインタネットワークモデルを設計し,検索した回答と接地トラス応答とのセマンティックな相関関係をフル活用する。
論文 参考訳(メタデータ) (2021-06-10T15:49:26Z) - THINK: A Novel Conversation Model for Generating Grammatically Correct
and Coherent Responses [10.910845951559388]
我々は「THINK」という会話モデルを提案する。
このモデルは文脈ベクトルを単純化し、生成した応答のコヒーレンスを合理的に増大させる。
他のベースラインと比較すると, 自動評価と人的評価の両方で, モデルの利点が示された。
論文 参考訳(メタデータ) (2021-05-28T07:11:32Z) - Cue-word Driven Neural Response Generation with a Shrinking Vocabulary [8.021536281277044]
本稿では,デコード中に複数のキューワードを生成し,生成したキューワードを用いてデコーディングを駆動し,デコード語彙を縮小する,新しい自然なアプローチを提案する。
実験の結果,提案手法は復号化の複雑さをはるかに低く抑えながら,いくつかの強力なベースラインモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-10-10T07:13:32Z) - Generating Dialogue Responses from a Semantic Latent Space [75.18449428414736]
語彙のエンドツーエンド分類に代わる方法を提案する。
潜在空間上の回帰タスクとして,プロンプトと応答のペア関係を学習する。
人間の評価は、連続した空間でタスクを学習すると、関連性と情報性の両方を持つ応答が生成されることを示した。
論文 参考訳(メタデータ) (2020-10-04T19:06:16Z) - Composing Answer from Multi-spans for Reading Comprehension [77.32873012668783]
本稿では,非抽出機械読解(MRC)タスクに対する応答を生成する新しい手法を提案する。
提案手法は,長い解答を正確に生成する性能が向上し,競合する2つの典型的な1スパンとSeq2Seqのベースラインデコーダよりも大幅に向上する。
論文 参考訳(メタデータ) (2020-09-14T01:44:42Z) - Controlling Dialogue Generation with Semantic Exemplars [55.460082747572734]
本稿では,経験的応答に現れる意味的フレームを用いて生成をガイドする,経験的対話生成モデルEDGEを提案する。
単語自体の単語ではなく、経験者の意味的フレームに基づく対話生成の制御により、生成した応答の一貫性が向上することを示す。
論文 参考訳(メタデータ) (2020-08-20T17:02:37Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。