論文の概要: Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework
- arxiv url: http://arxiv.org/abs/2003.11528v1
- Date: Fri, 13 Mar 2020 14:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:50:57.793627
- Title: Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework
- Title(参考訳): 統一した枠組みによる漢詩の主要な種類の生成
- Authors: Jinyi Hu, Maosong Sun
- Abstract要約: GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
- 参考スコア(独自算出の注目度): 88.57587722069239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Poetry generation is an interesting research topic in the field of text
generation. As one of the most valuable literary and cultural heritages of
China, Chinese classical poetry is very familiar and loved by Chinese people
from generation to generation. It has many particular characteristics in its
language structure, ranging from form, sound to meaning, thus is regarded as an
ideal testing task for text generation. In this paper, we propose a GPT-2 based
uniformed framework for generating major types of Chinese classical poems. We
define a unified format for formulating all types of training samples by
integrating detailed form information, then present a simple form-stressed
weighting method in GPT-2 to strengthen the control to the form of the
generated poems, with special emphasis on those forms with longer body length.
Preliminary experimental results show this enhanced model can generate Chinese
classical poems of major types with high quality in both form and content,
validating the effectiveness of the proposed strategy. The model has been
incorporated into Jiuge, the most influential Chinese classical poetry
generation system developed by Tsinghua University (Guo et al., 2019).
- Abstract(参考訳): 詩生成は、テキスト生成の分野で興味深い研究トピックである。
中国で最も貴重な文学・文化遺産の1つとして、中国の古典詩は非常に親しみやすく、代々中国人に愛されている。
その言語構造には形式、音、意味など様々な特徴があり、テキスト生成のための理想的なテストタスクとみなされている。
本稿では,主要な漢詩を生成できるGPT-2に基づく統一的枠組みを提案する。
詳細なフォーム情報を統合して,すべての種類のトレーニングサンプルを統一的に定式化するための形式を定義し,gpt-2 で簡易な形式拘束重み付け法を提案し,生成した詩の形式への制御を強化し,長身の形式を特に強調する。
予備実験の結果,本モデルでは,提案手法の有効性を検証し,形式・内容ともに高品質な中国古典詩を生成できることがわかった。
このモデルは清華大学(guo et al., 2019)が開発した最も影響力のある漢詩生成システムであるjiugeに取り入れられている。
関連論文リスト
- PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - GPoeT-2: A GPT-2 Based Poem Generator [0.5156484100374058]
GPoeT-2は、アート自然言語モデル(GPT-2)の状態を微調整してリメリクを生成する。
人間の創造性を刺激する「良質な詩」指標を高く評価する94の分類されたリメリクのコレクションを提示する。
論文 参考訳(メタデータ) (2022-05-18T10:25:12Z) - TransCouplet:Transformer based Chinese Couplet Generation [1.084959821967413]
漢詩は、古代中国語との複雑な文法からなる詩の形式である。
本稿では,変換器を用いたシーケンス・ツー・シーケンス・カップル生成モデルを提案する。
また,Glyph,PinYin,Part-of-Speechのタグ付けを2つの文法規則に基づいて評価した。
論文 参考訳(メタデータ) (2021-12-03T04:34:48Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z) - Chinese Traditional Poetry Generating System Based on Deep Learning [0.0]
本稿では,ディープラーニング技術に基づく漢詩の自動生成手法を提案する。
それぞれの詩からキーワードを抽出し、それらを前の文章と一致させて、その詩を主題に適合させる。
ユーザが文章の段落を入力すると、そのテーマを取得し、文によって詩文を生成する。
論文 参考訳(メタデータ) (2021-10-24T02:43:03Z) - CCPM: A Chinese Classical Poetry Matching Dataset [50.90794811956129]
本稿では,詩のマッチングによるモデルの意味的理解を評価するための新しい課題を提案する。
この課題は、現代漢訳の漢詩では、4人の候補者の中から1行の漢詩を選ばなければならない。
このデータセットを構築するために、まず中国古典詩と現代中国語の翻訳の並列データを得る。
論文 参考訳(メタデータ) (2021-06-03T16:49:03Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z) - AnchiBERT: A Pre-Trained Model for Ancient ChineseLanguage Understanding
and Generation [22.08457469951396]
AnchiBERTは、BERTのアーキテクチャに基づいた事前訓練された言語モデルである。
詩分類を含む言語理解タスクと生成タスクの両面でAnchiBERTを評価した。
論文 参考訳(メタデータ) (2020-09-24T03:41:13Z) - SongNet: Rigid Formats Controlled Text Generation [51.428634666559724]
この問題に対処するために,SongNetというシンプルでエレガントなフレームワークを提案する。
フレームワークのバックボーンは、Transformerベースの自動回帰言語モデルである。
事前学習および微調整のフレームワークは、生成品質をさらに向上するために設計されている。
論文 参考訳(メタデータ) (2020-04-17T01:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。