論文の概要: Chinese Traditional Poetry Generating System Based on Deep Learning
- arxiv url: http://arxiv.org/abs/2110.12335v1
- Date: Sun, 24 Oct 2021 02:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 18:30:52.082122
- Title: Chinese Traditional Poetry Generating System Based on Deep Learning
- Title(参考訳): 深層学習に基づく中国の伝統詩生成システム
- Authors: Chenlei Bao and Lican Huang
- Abstract要約: 本稿では,ディープラーニング技術に基づく漢詩の自動生成手法を提案する。
それぞれの詩からキーワードを抽出し、それらを前の文章と一致させて、その詩を主題に適合させる。
ユーザが文章の段落を入力すると、そのテーマを取得し、文によって詩文を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chinese traditional poetry is an important intangible cultural heritage of
China and an artistic carrier of thought, culture, spirit and emotion. However,
due to the strict rules of ancient poetry, it is very difficult to write poetry
by machine. This paper proposes an automatic generation method of Chinese
traditional poetry based on deep learning technology, which extracts keywords
from each poem and matches them with the previous text to make the poem conform
to the theme, and when a user inputs a paragraph of text, the machine obtains
the theme and generates poem sentence by sentence. Using the classic word2vec
model as the preprocessing model, the Chinese characters which are not
understood by the computer are transformed into matrix for processing.
Bi-directional Long Short-Term Memory is used as the neural network model to
generate Chinese characters one by one and make the meaning of Chinese
characters as accurate as possible. At the same time, TF-IDF and TextRank are
used to extract keywords. Using the attention mechanism based encoding-decoding
model, we can solve practical problems by transforming the model, and
strengthen the important information of long-distance information, so as to
grasp the key points without losing important information. In the aspect of
emotion judgment, Long Short-Term Memory network is used. The final result
shows that it can get good poetry outputs according to the user input text.
- Abstract(参考訳): 中国の伝統詩は中国の重要な無形文化遺産であり、思想、文化、精神、感情の芸術的キャリアである。
しかし、古詩の厳格な規則により、機械で詩を書くことは極めて困難である。
本稿では,各詩からキーワードを抽出し,そのキーワードを前文とマッチングしてテーマに適合させる,深層学習技術に基づく漢詩の自動生成手法を提案し,ユーザが文章の段落を入力すると,そのテーマを取得し,文によって詩文を生成する。
従来のWord2vecモデルを前処理モデルとして、コンピュータで理解されていない漢字を行列に変換して処理する。
ニューラルネットワークモデルとして双方向長短期記憶を用いて漢字を1つずつ生成し、漢字の意味をできるだけ正確にする。
同時に、TF-IDF と TextRank はキーワードを抽出するために使われる。
注意機構に基づく符号化復号モデルを用いて,モデルを変換し,長距離情報の重要な情報を強化することで,重要な情報を失うことなくキーポイントを把握できる。
感情判断の面では、Long Short-Term Memory Networkが使用される。
最終結果は、ユーザの入力テキストに応じて優れた詩の出力が得られることを示す。
関連論文リスト
- Semi-supervised Chinese Poem-to-Painting Generation via Cycle-consistent Adversarial Networks [2.250406890348191]
本稿では,周期整合型対数ネットワークを用いた半教師付き手法を提案する。
生成した詩や絵画の品質,多様性,一貫性を評価するために,新しい評価指標を導入する。
提案手法は従来の手法よりも優れており,芸術表現の象徴的本質をとらえる可能性を示唆している。
論文 参考訳(メタデータ) (2024-10-25T04:57:44Z) - Chinese Text Recognition with A Pre-Trained CLIP-Like Model Through
Image-IDS Aligning [61.34060587461462]
中国語テキスト認識(CTR)のための2段階フレームワークを提案する。
印刷文字画像とIdeographic Description Sequences (IDS) の整列によるCLIP様モデルの事前学習を行う。
この事前学習段階は、漢字を認識する人間をシミュレートし、各文字の標準表現を得る。
学習された表現はCTRモデルを監督するために使用され、従来の単一文字認識はテキストライン認識に改善される。
論文 参考訳(メタデータ) (2023-09-03T05:33:16Z) - BACON: Deep-Learning Powered AI for Poetry Generation with Author
Linguistic Style Transfer [91.3755431537592]
本稿では,BACONについて述べる。BACONは,著者の言語スタイルを伝達する自動詩生成器のプロトタイプである。
有限状態機械、確率モデル、人工ニューラルネットワーク、深層学習の概念と技法を組み合わせて、任意の著者のスタイルで豊かな美的品質でオリジナルの詩を書く。
論文 参考訳(メタデータ) (2021-12-14T00:08:36Z) - TransCouplet:Transformer based Chinese Couplet Generation [1.084959821967413]
漢詩は、古代中国語との複雑な文法からなる詩の形式である。
本稿では,変換器を用いたシーケンス・ツー・シーケンス・カップル生成モデルを提案する。
また,Glyph,PinYin,Part-of-Speechのタグ付けを2つの文法規則に基づいて評価した。
論文 参考訳(メタデータ) (2021-12-03T04:34:48Z) - ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin
Information [32.70080326854314]
我々は,漢字のグリフとピニイン情報を事前学習に組み込んだ ChineseBERT を提案する。
提案した ChineseBERT モデルは,トレーニングステップの少ないベースラインモデルよりも大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2021-06-30T13:06:00Z) - CCPM: A Chinese Classical Poetry Matching Dataset [50.90794811956129]
本稿では,詩のマッチングによるモデルの意味的理解を評価するための新しい課題を提案する。
この課題は、現代漢訳の漢詩では、4人の候補者の中から1行の漢詩を選ばなければならない。
このデータセットを構築するために、まず中国古典詩と現代中国語の翻訳の並列データを得る。
論文 参考訳(メタデータ) (2021-06-03T16:49:03Z) - SHUOWEN-JIEZI: Linguistically Informed Tokenizers For Chinese Language
Model Pretraining [48.880840711568425]
事前学習された言語モデルの中国語トークン化に対する3つの要因の影響について検討する。
本稿では,発音に基づくトークン化システムであるSHUOWEN (Talk Word) と,グリフに基づくトークン化システムであるJIEZI (Solve Character) の3種類のトークン化手法を提案する。
SHUOWENとJIEZIは、一般的に従来のシングル文字トークンよりも優れた性能を持つ。
論文 参考訳(メタデータ) (2021-06-01T11:20:02Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z) - Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework [88.57587722069239]
GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
論文 参考訳(メタデータ) (2020-03-13T14:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。