論文の概要: WakaVT: A Sequential Variational Transformer for Waka Generation
- arxiv url: http://arxiv.org/abs/2104.00426v1
- Date: Thu, 1 Apr 2021 12:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:56:44.939155
- Title: WakaVT: A Sequential Variational Transformer for Waka Generation
- Title(参考訳): wakavt:和歌生成のための逐次変分トランスフォーマ
- Authors: Yuka Takeishi, Mingxuan Niu, Jing Luo, Zhong Jin, Xinyu Yang
- Abstract要約: ユーザ指定キーワードで和歌を自動生成する和歌世代モデル「WakaVT」を提案する。
WakaVTは潜伏変数のシーケンスを使用し、和歌データにおける単語レベルの変動を効果的にキャプチャする。
トランスフォーマーおよび/または変分オートエンコーダに基づくモデルを用いて、和歌世代を初めて検討する。
- 参考スコア(独自算出の注目度): 13.099702394230167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Poetry generation has long been a challenge for artificial intelligence. In
the scope of Japanese poetry generation, many researchers have paid attention
to Haiku generation, but few have focused on Waka generation. To further
explore the creative potential of natural language generation systems in
Japanese poetry creation, we propose a novel Waka generation model, WakaVT,
which automatically produces Waka poems given user-specified keywords. Firstly,
an additive mask-based approach is presented to satisfy the form constraint.
Secondly, the structures of Transformer and variational autoencoder are
integrated to enhance the quality of generated content. Specifically, to obtain
novelty and diversity, WakaVT employs a sequence of latent variables, which
effectively captures word-level variability in Waka data. To improve linguistic
quality in terms of fluency, coherence, and meaningfulness, we further propose
the fused multilevel self-attention mechanism, which properly models the
hierarchical linguistic structure of Waka. To the best of our knowledge, we are
the first to investigate Waka generation with models based on Transformer
and/or variational autoencoder. Both objective and subjective evaluation
results demonstrate that our model outperforms baselines significantly.
- Abstract(参考訳): 詩の生成は人工知能にとって長年の課題だった。
和歌世代においては、俳句世代に注目する研究者も多いが、和歌世代に注目する研究者は少ない。
日本語詩作成における自然言語生成システムの創造的可能性を探るため,ユーザが指定したキーワードを自動生成する新たな和歌生成モデルであるWakaVTを提案する。
まず, 形状制約を満たすために, 加法マスクに基づくアプローチを提案する。
次に、トランスと変分オートエンコーダの構造を一体化し、生成コンテンツの品質を高める。
特に,新鮮さと多様性を得るために,若さデータにおける単語レベルの変動を効果的にキャプチャする潜伏変数列を用いる。
さらに,フラレンシー,コヒーレンス,有意義性の観点から言語品質を向上させるために,和歌の階層的言語構造を適切にモデル化する融合多レベル自己照応機構を提案する。
我々の知る限りでは、トランスフォーマおよび/または変分オートエンコーダに基づくモデルによる和歌生成を最初に調査する。
客観評価の結果と主観評価の結果は,本モデルがベースラインを著しく上回ることを示した。
関連論文リスト
- Topic-to-essay generation with knowledge-based content selection [1.0625748132006634]
本稿では,言語モデルからの豊富な意味的知識をデコーダに統合する,コンテンツ選択モジュールを備えた新しいコピー機構モデルを提案する。
実験結果から,提案手法により得られたテキストの多様性を35%から59%向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-02-26T02:14:42Z) - TPPoet: Transformer-Based Persian Poem Generation using Minimal Data and
Advanced Decoding Techniques [0.9831489366502302]
我々は,ペルシャの古典詩生成モデルを,事前学習のない特別なデータセット上でトランスフォーマーアーキテクチャを用いて訓練する。
生成された詩のコヒーレンスと意味性を高めるための新しい復号法を提案する。
トレーニング手法と提案手法の結果は,総合的な自動評価と人的評価によって評価される。
論文 参考訳(メタデータ) (2023-12-04T18:52:26Z) - PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - Controllable Text Generation for Open-Domain Creativity and Fairness [36.744208990024575]
言語生成モデルの創造性と公平性を高めるために,制御可能なテキスト生成に関する最近の研究を紹介する。
階層的生成と制約付き復号化を探求し、物語、詩、図形言語を含む創造的な言語生成に適用する。
論文 参考訳(メタデータ) (2022-09-24T22:40:01Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z) - MixPoet: Diverse Poetry Generation via Learning Controllable Mixed
Latent Space [79.70053419040902]
多様な要素を吸収し,多様なスタイルを創出し,多様性を促進する新しいモデルであるMixPoetを提案する。
半教師付き変分オートエンコーダに基づいて、我々のモデルは潜在空間をいくつかの部分空間に切り離し、それぞれが敵の訓練によって1つの影響因子に条件付けされる。
中国詩の実験結果は、MixPoetが3つの最先端モデルに対して多様性と品質の両方を改善していることを示している。
論文 参考訳(メタデータ) (2020-03-13T03:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。