論文の概要: BIPro: Zero-shot Chinese Poem Generation via Block Inverse Prompting Constrained Generation Framework
- arxiv url: http://arxiv.org/abs/2411.13237v1
- Date: Wed, 20 Nov 2024 11:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:12:38.269218
- Title: BIPro: Zero-shot Chinese Poem Generation via Block Inverse Prompting Constrained Generation Framework
- Title(参考訳): BIPro:ブロック逆プロンプティング制約生成フレームワークによるゼロショット漢字生成
- Authors: Xu Zou,
- Abstract要約: 本稿では,Block Inverse Prompting (BIPro) 制約付き生成フレームワークを紹介する。
BIProは2つのブロック逆プロンプト手法を利用して、人間の文章の書き方を模倣する修正と書き直しを行う。
オープンドメインの漢詩生成の厳しい制約付き生成タスクにおいて、ゼロショット生成品質を著しく向上させる。
- 参考スコア(独自算出の注目度): 10.014529193868587
- License:
- Abstract: Recently, generative pre-trained models have made significant strides, particularly highlighted by the release of ChatGPT and GPT-4, which exhibit superior cross-domain capabilities. However, these models still face challenges on constrained writing tasks like poem generation under open-domain titles. In response to this challenge, we introduce Block Inverse Prompting (BIPro) constrained generation framework. BIPro leverages two block inverse prompting methods, revise and rewrite, that mimic the process of human text writing using block generative models. It significantly improves the zero-shot generation quality on the formidable constrained generation task of open-domain traditional-form Chinese poem generation. Based on a less powerful block generative model GLM-10B-Chinese, poems composed via BIPro without priming or additional training outperform both most advanced direct generative systems like GPT-4 or GLM-4 and best domain-specific systems such as Yusheng, Shisanbai, or Baidu Poetry Helper in human evaluation by proficient poets. Finally, BIPro considerably narrows the gap between AI-generated works and short-listed human literary arts in another human evaluation, unveiling the promising potential of block generative models in improving the quality of constrained generation.
- Abstract(参考訳): 特にChatGPTとGPT-4がリリースされ、優れたクロスドメイン機能を示すことが注目されている。
しかしながら、これらのモデルは、オープンドメインのタイトルの下での詩生成のような制約付き書き込みタスクに対して、依然として課題に直面している。
この課題に対応するために,Block Inverse Prompting (BIPro) 制約付き生成フレームワークを導入する。
BIProは、ブロック生成モデルを用いた人間のテキストの書き起こしの過程を模倣する2つのブロック逆プロンプト手法を活用している。
オープンドメインの漢詩生成の厳しい制約付き生成タスクにおいて、ゼロショット生成品質を著しく向上させる。
より強力なブロック生成モデルであるGLM-10B-漢文をベースとして、プリミングや追加の訓練を伴わないBIProによる詩は、GPT-4やGLM-4のような最も先進的な生成システムと、有心、詩三梅、Baidu詩人ヘルパーといったドメイン固有システムの両方に優れる。
最後に、BIProはAIが生成した作品とヒトの短編アートとのギャップを人間による評価でかなり狭め、制約された世代の品質を向上させるために、ブロック生成モデルの有望な可能性を明らかにする。
関連論文リスト
- FOCUS: Forging Originality through Contrastive Use in Self-Plagiarism for Language Models [38.76912842622624]
プレトレーニング言語モデル(PLM)は、様々な自然言語生成(NLG)タスクにおいて印象的な結果を示している。
本研究では, PLMが生成するテキストの独創性を高めることを目的とした, 独特な「自己プラギアリズム」コントラスト的復号戦略を提案する。
論文 参考訳(メタデータ) (2024-06-02T19:17:00Z) - Enforcing Paraphrase Generation via Controllable Latent Diffusion [60.82512050963046]
textitLatent textitDiffusion textitParaphraser(LDP)を提案する。
実験により, LDPはベースラインに比べて改良され, 多様なパラフレーズ生成を達成できることが示された。
論文 参考訳(メタデータ) (2024-04-13T09:24:32Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - ByGPT5: End-to-End Style-conditioned Poetry Generation with Token-free
Language Models [23.381986209234157]
そこで本研究では,韻律,韻律,韻律などの文体に規定された終末詩の生成について検討する。
我々は、新しいトークンフリーデコーダのみの言語モデルであるBYGPT5の事前トレーニングに成功した。
ByGPT5は,mT5,BYT5,GPT-2,ChatGPTなどの他のモデルよりも優れ,パラメータ効率が良く,人間に好適な性能を示す。
論文 参考訳(メタデータ) (2022-12-20T17:49:49Z) - Controllable Generation from Pre-trained Language Models via Inverse
Prompting [47.23315683944257]
テキスト生成をよりよく制御する革新的な手法である逆プロンプトを提案する。
逆プロンプトは生成されたテキストを使用してビーム探索中に逆プロンプトを予測する。
その結果,提案手法はベースラインを大きく上回ることがわかった。
論文 参考訳(メタデータ) (2021-03-19T08:36:52Z) - Progressive Generation of Long Text with Pretrained Language Models [83.62523163717448]
GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
このようなモデルが、特に小さなコーパス上のターゲットドメインに微調整された場合、コヒーレントな長いテキストパスを生成することは依然として困難である。
本稿では,低解像度から高解像度の画像に触発されて,テキストを段階的に生成する簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2020-06-28T21:23:05Z) - PALM: Pre-training an Autoencoding&Autoregressive Language Model for
Context-conditioned Generation [92.7366819044397]
自己指導型事前学習は、自然言語の理解と生成のための強力な技術として登場した。
本研究は,大規模未ラベルコーパス上で自己エンコーディングと自己回帰言語モデルを共同で事前学習する新しいスキームをPALMに提示する。
広範な実験により、PALMは様々な言語生成ベンチマークにおいて、新しい最先端の結果を達成することが示されている。
論文 参考訳(メタデータ) (2020-04-14T06:25:36Z) - Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework [88.57587722069239]
GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
論文 参考訳(メタデータ) (2020-03-13T14:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。