論文の概要: GPT Czech Poet: Generation of Czech Poetic Strophes with Language Models
- arxiv url: http://arxiv.org/abs/2407.12790v1
- Date: Tue, 18 Jun 2024 06:19:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 08:57:39.470335
- Title: GPT Czech Poet: Generation of Czech Poetic Strophes with Language Models
- Title(参考訳): GPT Czech Poet: 言語モデルによるチェコの詩的悲劇の生成
- Authors: Michal Chudoba, Rudolf Rosa,
- Abstract要約: チェコ語で詩を生成するための新しいモデルを提案する。
詩文中のストロフェパラメータを明示的に指定することで生成プロセスの指導がモデルの有効性を強く向上することを示す。
- 参考スコア(独自算出の注目度): 0.4444634303550442
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High-quality automated poetry generation systems are currently only available for a small subset of languages. We introduce a new model for generating poetry in Czech language, based on fine-tuning a pre-trained Large Language Model. We demonstrate that guiding the generation process by explicitly specifying strophe parameters within the poem text strongly improves the effectiveness of the model. We also find that appropriate tokenization is crucial, showing that tokenization methods based on syllables or individual characters instead of subwords prove superior in generating poetic strophes. We further enhance the results by introducing \textit{Forced~generation}, adding explicit specifications of meter and verse parameters at inference time based on the already generated text. We evaluate a range of setups, showing that our proposed approach achieves high accuracies in rhyming and metric aspects of formal quality of the generated poems.
- Abstract(参考訳): 高品質な自動詩生成システムは現在、少数の言語でしか利用できない。
チェコ語で詩を生成するための新しいモデルを提案する。
詩文中のストロフェパラメータを明示的に指定することで生成プロセスの指導がモデルの有効性を強く向上することを示す。
また、適切なトークン化が不可欠であることから、代名詞ではなく音節や個々の文字をベースとしたトークン化手法が詩の構図を生成する上で優れていることが分かる。
我々は、すでに生成されたテキストに基づいて、推論時にメーターとバースパラメータの明示的な仕様を追加することで、結果をさらに強化する。
提案手法は, 韻律の高精度化と, 生成した詩の形式的品質の尺度化を実現していることを示す。
関連論文リスト
- Detecting Document-level Paraphrased Machine Generated Content: Mimicking Human Writing Style and Involving Discourse Features [57.34477506004105]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
人間の筆記スタイルをエミュレートするエンコーダデコーダモデルであるMhBARTを提案する。
また,PDTB前処理による談話解析を統合し,構造的特徴を符号化するモデルであるDTransformerを提案する。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - ByGPT5: End-to-End Style-conditioned Poetry Generation with Token-free
Language Models [23.381986209234157]
そこで本研究では,韻律,韻律,韻律などの文体に規定された終末詩の生成について検討する。
我々は、新しいトークンフリーデコーダのみの言語モデルであるBYGPT5の事前トレーニングに成功した。
ByGPT5は,mT5,BYT5,GPT-2,ChatGPTなどの他のモデルよりも優れ,パラメータ効率が良く,人間に好適な性能を示す。
論文 参考訳(メタデータ) (2022-12-20T17:49:49Z) - Improving Text Auto-Completion with Next Phrase Prediction [9.385387026783103]
我々の戦略は、Next Phrase Prediction (NPP)と呼ばれる新しい自己指導型トレーニング目標を含む。
予備実験により,メールや学術書記ドメインの自動補完において,本手法がベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2021-09-15T04:26:15Z) - Progressive Generation of Long Text with Pretrained Language Models [83.62523163717448]
GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
このようなモデルが、特に小さなコーパス上のターゲットドメインに微調整された場合、コヒーレントな長いテキストパスを生成することは依然として困難である。
本稿では,低解像度から高解像度の画像に触発されて,テキストを段階的に生成する簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2020-06-28T21:23:05Z) - Improving Adversarial Text Generation by Modeling the Distant Future [155.83051741029732]
テキスト計画手法を考察し、上記の問題を緩和するためのモデルに基づく模倣学習手法を提案する。
本稿では,より長い地平線上の生成過程に焦点をあてる新しいガイドネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-04T05:45:13Z) - SongNet: Rigid Formats Controlled Text Generation [51.428634666559724]
この問題に対処するために,SongNetというシンプルでエレガントなフレームワークを提案する。
フレームワークのバックボーンは、Transformerベースの自動回帰言語モデルである。
事前学習および微調整のフレームワークは、生成品質をさらに向上するために設計されている。
論文 参考訳(メタデータ) (2020-04-17T01:40:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。