論文の概要: Acrostic Poem Generation
- arxiv url: http://arxiv.org/abs/2010.02239v1
- Date: Mon, 5 Oct 2020 18:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:41:43.118228
- Title: Acrostic Poem Generation
- Title(参考訳): アクロスティック・ポエム・ジェネレーション
- Authors: Rajat Agarwal and Katharina Kann
- Abstract要約: 計算創造性分野における新たな課題として,英語のアクロスティック詩生成を提案する。
アクロスティック詩(Acrostic poem)は、隠されたメッセージを含む詩で、典型的には、各行の最初の文字が単語や短い句を綴り出す。
実験の結果,本研究の基準詩は人間に好意的に受け取られており,付加的な制約により品質が損なわれていないことが明らかとなった。
- 参考スコア(独自算出の注目度): 26.604889384391726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new task in the area of computational creativity: acrostic poem
generation in English. Acrostic poems are poems that contain a hidden message;
typically, the first letter of each line spells out a word or short phrase. We
define the task as a generation task with multiple constraints: given an input
word, 1) the initial letters of each line should spell out the provided word,
2) the poem's semantics should also relate to it, and 3) the poem should
conform to a rhyming scheme. We further provide a baseline model for the task,
which consists of a conditional neural language model in combination with a
neural rhyming model. Since no dedicated datasets for acrostic poem generation
exist, we create training data for our task by first training a separate topic
prediction model on a small set of topic-annotated poems and then predicting
topics for additional poems. Our experiments show that the acrostic poems
generated by our baseline are received well by humans and do not lose much
quality due to the additional constraints. Last, we confirm that poems
generated by our model are indeed closely related to the provided prompts, and
that pretraining on Wikipedia can boost performance.
- Abstract(参考訳): 計算創造性分野における新たな課題として,英語のアクロスティック詩生成を提案する。
アクロスティック詩は隠されたメッセージを含む詩であり、典型的には、各行の最初の文字が単語または短い句を綴る。
我々は、タスクを複数の制約を持つ生成タスクとして定義する。
1) 各行の初期文字は、与えられた単語を綴るべきである。
2) 詩の意味論もそれに関連するべきであり、
3)その詩は韻律に従わなければならない。
さらに、条件付きニューラルネットワークモデルとニューラルな韻律モデルを組み合わせたタスクのベースラインモデルを提供する。
アクロスティック詩生成のための専用のデータセットが存在しないので、まず、トピック注釈付き詩の小さなセットに個別のトピック予測モデルをトレーニングし、追加の詩のトピックを予測することで、タスクのトレーニングデータを作成する。
実験の結果, ベースラインが生成するアクロスティック詩は人間に好意的に受け入れられ, 付加的な制約により品質が損なわれないことがわかった。
最後に、本モデルが生成する詩は、提供されたプロンプトと密接に関連しており、wikipediaでの事前学習によってパフォーマンスが向上することを確認した。
関連論文リスト
- PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - Unsupervised Melody-to-Lyric Generation [91.29447272400826]
本稿では,メロディ・歌詞データを学習することなく高品質な歌詞を生成する手法を提案する。
我々は、メロディと歌詞のセグメンテーションとリズムアライメントを利用して、与えられたメロディをデコード制約にコンパイルする。
我々のモデルは、強いベースラインよりもオントピー的、歌いやすく、知性があり、一貫性のある高品質な歌詞を生成することができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:25Z) - Unsupervised Melody-Guided Lyrics Generation [84.22469652275714]
メロディと歌詞の一致したデータを学習することなく、楽しく聴ける歌詞を生成することを提案する。
メロディと歌詞間の重要なアライメントを活用し、与えられたメロディを制約にコンパイルし、生成プロセスを導く。
論文 参考訳(メタデータ) (2023-05-12T20:57:20Z) - PoeLM: A Meter- and Rhyme-Controllable Language Model for Unsupervised
Poetry Generation [42.12348554537587]
形式詩は詩の韻律や韻律に厳格な制約を課している。
この種の詩を創作する以前の作品のほとんどは、既存の詩を監督に用いている。
本稿では,任意の韻律や韻律に従って詩を生成するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-24T17:09:55Z) - Zero-shot Sonnet Generation with Discourse-level Planning and Aesthetics
Features [37.45490765899826]
詩の訓練を必要としないソネットを生成するための新しい枠組みを提案する。
具体的には、コンテンツ計画モジュールを非詩文で訓練し、談話レベルのコヒーレンスを得る。
また、生成されたソネットのパラメータとリズムの制約を課す制約付き復号アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-05-03T23:44:28Z) - CCPM: A Chinese Classical Poetry Matching Dataset [50.90794811956129]
本稿では,詩のマッチングによるモデルの意味的理解を評価するための新しい課題を提案する。
この課題は、現代漢訳の漢詩では、4人の候補者の中から1行の漢詩を選ばなければならない。
このデータセットを構築するために、まず中国古典詩と現代中国語の翻訳の並列データを得る。
論文 参考訳(メタデータ) (2021-06-03T16:49:03Z) - There Once Was a Really Bad Poet, It Was Automated but You Didn't Know
It [31.951441780084345]
我々は,リメリック生成のための新しい完全自動化システムLimGenを紹介する。
limgenは最先端のニューラルネットワークベースの詩モデルを上回る。
結果として生じるリメリックは詩的制約を満たし、主題的に一貫性のあるストーリーラインを持つ。
論文 参考訳(メタデータ) (2021-03-05T16:03:55Z) - Generate and Revise: Reinforcement Learning in Neural Poetry [17.128639251861784]
そこで本研究では,人間と同じように繰り返し再検討・訂正される詩を,全体的な品質向上のために生成する枠組みを提案する。
本モデルでは,スクラッチから詩を生成するとともに,対象の基準に合わせるために,生成したテキストを段階的に調整する。
本手法は,韻文作成にどの単語が責任があるのか,詩文のコヒーレントな変更の仕方などを知ることなく,韻文体系と一致する場合において評価する。
論文 参考訳(メタデータ) (2021-02-08T10:35:33Z) - MixPoet: Diverse Poetry Generation via Learning Controllable Mixed
Latent Space [79.70053419040902]
多様な要素を吸収し,多様なスタイルを創出し,多様性を促進する新しいモデルであるMixPoetを提案する。
半教師付き変分オートエンコーダに基づいて、我々のモデルは潜在空間をいくつかの部分空間に切り離し、それぞれが敵の訓練によって1つの影響因子に条件付けされる。
中国詩の実験結果は、MixPoetが3つの最先端モデルに対して多様性と品質の両方を改善していることを示している。
論文 参考訳(メタデータ) (2020-03-13T03:31:29Z) - Introducing Aspects of Creativity in Automatic Poetry Generation [2.792030485253753]
詩生成とは、詩作品に似たテキストを自動的に生成する教育システムである。
深層学習システムは、詩のコーパスを訓練し、特定の言語スタイルをモデル化することで、独自の詩を生成することができる。
我々は,事前訓練された言語モデルであるGPT-2を下流の詩生成タスクに適用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-06T20:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。