論文の概要: PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation
- arxiv url: http://arxiv.org/abs/2306.08456v1
- Date: Wed, 14 Jun 2023 11:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 19:08:03.124996
- Title: PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation
- Title(参考訳): 詩の融合 : 詩生成における意味的・韻律的操作の融合に向けて
- Authors: Zhiyuan Hu, Chumin Liu, Yue Feng, Bryan Hooi
- Abstract要約: 我々は、中国語のSonnetとSongCiで詩を生成するために拡散モデルを採用している。
我々のモデルは、文情報全体を考慮し、セマンティック表現の改善をもたらす。
我々は、メトリクスを操作および評価するために、新しいメートル法コントローラを組み込んだ。
- 参考スコア(独自算出の注目度): 29.711580156350493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Poetry generation is a typical and popular task in natural language
generation. While prior works have shown success in controlling either semantic
or metrical aspects of poetry generation, there are still challenges in
addressing both perspectives simultaneously. In this paper, we employ the
Diffusion model to generate poetry in Sonnet and SongCi in Chinese for the
first time to tackle such challenges. Different from autoregressive generation,
our PoetryDiffusion model, based on Diffusion model, generates the complete
sentence or poetry by taking into account the whole sentence information,
resulting in improved semantic expression. Additionally, we incorporate a novel
metrical controller to manipulate and evaluate metrics (format and rhythm). The
denoising process in PoetryDiffusion allows for gradual enhancement of
semantics and flexible integration of the metrical controller. Experimental
results on two datasets demonstrate that our model outperforms existing models
in terms of semantic, metrical and overall performance.
- Abstract(参考訳): 詩生成は自然言語生成において典型的で一般的なタスクである。
以前の作品では、詩生成の意味的側面や計量的側面を制御できたが、両方の視点を同時に扱うことにはまだ課題がある。
本稿では,中国語のSonnetとSongCiの詩を生成するためにDiffusionモデルを用いて,このような課題に初めて取り組む。
自己回帰生成と異なり、Diffusionモデルに基づく私たちの詩拡散モデルは、全文情報を考慮した完全な文や詩を生成し、意味表現の改善をもたらす。
さらに、メトリクス(フォーマットとリズム)を操作および評価するために、新しいメートル法コントローラを組み込んだ。
PoetryDiffusionのDenoisingプロセスは、セマンティクスの段階的な強化とメートル法コントローラの柔軟な統合を可能にする。
2つのデータセットに対する実験結果から,本モデルが意味的,計量的,総合的な性能で既存モデルより優れていることが示された。
関連論文リスト
- GPT Czech Poet: Generation of Czech Poetic Strophes with Language Models [0.4444634303550442]
チェコ語で詩を生成するための新しいモデルを提案する。
詩文中のストロフェパラメータを明示的に指定することで生成プロセスの指導がモデルの有効性を強く向上することを示す。
論文 参考訳(メタデータ) (2024-06-18T06:19:45Z) - Controllable Generation with Text-to-Image Diffusion Models: A Survey [8.394970202694529]
制御可能な生成研究は、新しい条件をサポートするために事前訓練されたテキスト・ツー・イメージ(T2I)モデルを制御することを目的としている。
本稿では拡散確率モデルについて概説する。
次に,拡散モデルの制御機構を明らかにする。
論文 参考訳(メタデータ) (2024-03-07T07:24:18Z) - Contextualized Diffusion Models for Text-Guided Image and Video Generation [67.69171154637172]
条件拡散モデルは高忠実度テキスト誘導視覚生成および編集において優れた性能を示した。
本研究では,テキスト条件と視覚的サンプル間の相互作用とアライメントを包含するクロスモーダルコンテキストを組み込むことにより,コンテキスト拡散モデル(ContextDiff)を提案する。
理論的導出を伴うDDPMとDDIMの両方にモデルを一般化し、テキスト・ツー・イメージ生成とテキスト・ツー・ビデオ編集という2つの課題を伴う評価において、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T15:01:16Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Language Model Decoding as Direct Metrics Optimization [87.68281625776282]
現在の復号法は、異なる側面にわたる人間のテキストと整合するテキストを生成するのに苦労している。
本研究では,言語モデルからの復号化を最適化問題として,期待される性能と人間のテキストとの厳密なマッチングを目的とした。
この誘導分布は,人間のテキストの難易度を向上させることが保証されていることを証明し,人間のテキストの基本的な分布に対するより良い近似を示唆する。
論文 参考訳(メタデータ) (2023-10-02T09:35:27Z) - PLANNER: Generating Diversified Paragraph via Latent Language Diffusion Model [37.2192243883707]
本稿では,潜在意味の拡散と自己回帰生成を組み合わせ,流動的なテキストを生成するモデルであるPLANNERを提案する。
意味生成, テキスト補完, 要約の結果は, 高品質な長文を生成する上での有効性を示す。
論文 参考訳(メタデータ) (2023-06-05T01:36:39Z) - TESS: Text-to-Text Self-Conditioned Simplex Diffusion [56.881170312435444]
テキストからテキストへの自己条件付きSimplex Diffusionは、新しい形式のセルフコンディショニングを採用し、学習された埋め込み空間ではなく、ロジット単純空間に拡散プロセスを適用する。
我々は、TESSが最先端の非自己回帰モデルより優れており、性能の低下を最小限に抑えた拡散ステップを少なくし、事前訓練された自己回帰列列列列モデルと競合することを示した。
論文 参考訳(メタデータ) (2023-05-15T06:33:45Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Self-conditioned Embedding Diffusion for Text Generation [28.342735885752493]
自己条件埋め込み拡散(Self-conditioned Embedding Diffusion)は、トークンの埋め込みで動作する連続拡散機構である。
テキスト拡散モデルでは,標準自己回帰言語モデルに匹敵するサンプルを生成する。
論文 参考訳(メタデータ) (2022-11-08T13:30:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。