論文の概要: SP-GPT2: Semantics Improvement in Vietnamese Poetry Generation
- arxiv url: http://arxiv.org/abs/2110.15723v1
- Date: Sun, 10 Oct 2021 14:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-07 11:40:27.157928
- Title: SP-GPT2: Semantics Improvement in Vietnamese Poetry Generation
- Title(参考訳): SP-GPT2:ベトナムの詩生成におけるセマンティックスの改善
- Authors: Tuan Nguyen, Hanh Pham, Truong Bui, Tan Nguyen, Duc Luong, Phong
Nguyen
- Abstract要約: GPT2(Generative Pretraining Transformer 2)は、優れた成功を収めた技術手法の1つである。
本稿では,ベトナムの伝統的な詩の世代における GPT2 の力を調べるための第一歩を踏み出した。
我々はスタイルルール辞書を含むテンプレートで生成された詩に対する最初の計算スコアリングモジュールをリリースした。
- 参考スコア(独自算出の注目度): 1.9107347888374506
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatic text generation has garnered growing attention in recent years as
an essential step towards computer creativity. Generative Pretraining
Transformer 2 (GPT2) is one of the state of the art approaches that have
excellent successes. In this paper, we took the first step to investigate the
power of GPT2 in traditional Vietnamese poetry generation. In the earlier time,
our experiment with base GPT2 was quite good at generating the poem in the
proper template. Though it can learn the patterns, including rhyme and tone
rules, from the training data, like almost all other text generation
approaches, the poems generated still has a topic drift and semantic
inconsistency. To improve the cohesion within the poems, we proposed a new
model SP-GPT2 (semantic poem GPT2) which was built on the top GPT2 model and an
additional loss to constrain context throughout the entire poem. For better
evaluation, we examined the methods by both automatic quantitative evaluation
and human evaluation. Both automatic and human evaluation demonstrated that our
approach can generate poems that have better cohesion without losing the
quality due to additional loss. At the same time, we are the pioneers of this
topic. We released the first computational scoring module for poems generated
in the template containing the style rule dictionary. Additionally, we are the
first to publish a Luc-Bat dataset, including 87609 Luc Bat poems, which is
equivalent to about 2.6 million sentences, combined with about 83579 poems in
other styles was also published for further exploration. The code is available
at https://github.com/fsoft-ailab/Poem-Generator
- Abstract(参考訳): 近年、自動テキスト生成はコンピュータの創造性にとって重要なステップとして注目を集めている。
GPT2(Generative Pretraining Transformer 2)は、優れた成功を収めた技術手法の1つである。
本稿では,ベトナムの伝統的な詩の世代における GPT2 の力を調べるための第一歩を踏み出した。
初期のGPT2を用いた実験は、適切なテンプレートで詩を生成するのに非常に適していた。
他のほとんどのテキスト生成手法と同様に、トレーニングデータから韻律やトーン規則などのパターンを学習することができるが、これらの詩は依然としてトピックドリフトと意味的矛盾を持っている。
詩の中の結束性を改善するため,上位のGPT2モデル上に構築されたSP-GPT2(Semantic poem GPT2)を新たに提案した。
評価の精度向上のために,自動定量評価と人的評価の両方法を検討した。
自動評価も人間評価も共に,追加的な損失によって品質を損なうことなく,より結束性のある詩を生成できることを示した。
同時に、私たちはこのトピックの先駆者です。
我々はスタイルルール辞書を含むテンプレートで生成された詩に対する最初の計算スコアリングモジュールをリリースした。
さらに,約2.6万文に相当する 87609 luc bat poems を含む luc-bat データセットを初めて公開し,他のスタイルによる約 83579 の詩もさらなる調査のために出版した。
コードはhttps://github.com/fsoft-ailab/Poem-Generatorで入手できる。
関連論文リスト
- Does ChatGPT Have a Poetic Style? [0.6827423171182154]
我々は、GPT-3.5とGPT-4モデルに、24種類の詩形式とスタイルで英語詩を生成するよう促す。
得られた5.7k詩を分析し、これらを詩財団とアメリカ詩人アカデミーの3.7k詩のサンプルと比較する。
GPTモデル、特にGPT-4は、共通言語と非共通言語の両方で詩を作成できることがわかった。
論文 参考訳(メタデータ) (2024-10-20T06:01:34Z) - Vietnamese Poem Generation & The Prospect Of Cross-Language Poem-To-Poem
Translation [0.0]
本研究では,大規模言語モデルを用いて,自然言語のプロンプトからベトナム語の詩を生成することを提案する。
GPT-3のバベッジ版は、ベトナム詩の「ルーク・バット」ジャンルに特化して0.8のカスタム評価スコアを達成している。
論文 参考訳(メタデータ) (2024-01-02T07:46:34Z) - PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - GPoeT-2: A GPT-2 Based Poem Generator [0.5156484100374058]
GPoeT-2は、アート自然言語モデル(GPT-2)の状態を微調整してリメリクを生成する。
人間の創造性を刺激する「良質な詩」指標を高く評価する94の分類されたリメリクのコレクションを提示する。
論文 参考訳(メタデータ) (2022-05-18T10:25:12Z) - CCPM: A Chinese Classical Poetry Matching Dataset [50.90794811956129]
本稿では,詩のマッチングによるモデルの意味的理解を評価するための新しい課題を提案する。
この課題は、現代漢訳の漢詩では、4人の候補者の中から1行の漢詩を選ばなければならない。
このデータセットを構築するために、まず中国古典詩と現代中国語の翻訳の並列データを得る。
論文 参考訳(メタデータ) (2021-06-03T16:49:03Z) - Acrostic Poem Generation [26.604889384391726]
計算創造性分野における新たな課題として,英語のアクロスティック詩生成を提案する。
アクロスティック詩(Acrostic poem)は、隠されたメッセージを含む詩で、典型的には、各行の最初の文字が単語や短い句を綴り出す。
実験の結果,本研究の基準詩は人間に好意的に受け取られており,付加的な制約により品質が損なわれていないことが明らかとなった。
論文 参考訳(メタデータ) (2020-10-05T18:00:15Z) - SongNet: Rigid Formats Controlled Text Generation [51.428634666559724]
この問題に対処するために,SongNetというシンプルでエレガントなフレームワークを提案する。
フレームワークのバックボーンは、Transformerベースの自動回帰言語モデルである。
事前学習および微調整のフレームワークは、生成品質をさらに向上するために設計されている。
論文 参考訳(メタデータ) (2020-04-17T01:40:18Z) - Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework [88.57587722069239]
GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
論文 参考訳(メタデータ) (2020-03-13T14:16:25Z) - MixPoet: Diverse Poetry Generation via Learning Controllable Mixed
Latent Space [79.70053419040902]
多様な要素を吸収し,多様なスタイルを創出し,多様性を促進する新しいモデルであるMixPoetを提案する。
半教師付き変分オートエンコーダに基づいて、我々のモデルは潜在空間をいくつかの部分空間に切り離し、それぞれが敵の訓練によって1つの影響因子に条件付けされる。
中国詩の実験結果は、MixPoetが3つの最先端モデルに対して多様性と品質の両方を改善していることを示している。
論文 参考訳(メタデータ) (2020-03-13T03:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。