論文の概要: CCiV: A Benchmark for Structure, Rhythm and Quality in LLM-Generated Chinese \textit{Ci} Poetry
- arxiv url: http://arxiv.org/abs/2602.14081v1
- Date: Sun, 15 Feb 2026 10:19:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.64488
- Title: CCiV: A Benchmark for Structure, Rhythm and Quality in LLM-Generated Chinese \textit{Ci} Poetry
- Title(参考訳): CCiV: LLMによる中国語「textit{Ci}」詩の構造・リズム・品質のベンチマーク
- Authors: Shangqing Zhao, Yupei Ren, Yuhao Zhou, Xiaopeng Bai, Man Lan,
- Abstract要約: textbf Chinese textbfCipai textbfVariants (textbfCCiV) を導入する。
30テキストCipaiにおける17のLLMの評価では,モデルが詩形式の有効かつ予期せぬ歴史的変種を頻繁に生成し,音調パターンへの固執は構造規則よりも著しく困難である,という2つの重要な現象が明らかになった。
- 参考スコア(独自算出の注目度): 21.543122877673294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The generation of classical Chinese \textit{Ci} poetry, a form demanding a sophisticated blend of structural rigidity, rhythmic harmony, and artistic quality, poses a significant challenge for large language models (LLMs). To systematically evaluate and advance this capability, we introduce \textbf{C}hinese \textbf{Ci}pai \textbf{V}ariants (\textbf{CCiV}), a benchmark designed to assess LLM-generated \textit{Ci} poetry across these three dimensions: structure, rhythm, and quality. Our evaluation of 17 LLMs on 30 \textit{Cipai} reveals two critical phenomena: models frequently generate valid but unexpected historical variants of a poetic form, and adherence to tonal patterns is substantially harder than structural rules. We further show that form-aware prompting can improve structural and tonal control for stronger models, while potentially degrading weaker ones. Finally, we observe weak and inconsistent alignment between formal correctness and literary quality in our sample. CCiV highlights the need for variant-aware evaluation and more holistic constrained creative generation methods.
- Abstract(参考訳): 古典中国語の『textit{Ci} 詩』は、構造的剛性、リズム調和、芸術的品質の洗練されたブレンドを必要とする形式であり、大きな言語モデル(LLM)にとって大きな課題となっている。
この能力を体系的に評価し、進歩させるために、LLM生成したこれらの3次元の詩(構造、リズム、品質)を評価するために設計されたベンチマークである \textbf{C}hinese \textbf{Ci}pai \textbf{V}ariants (\textbf{CCiV})を紹介する。
30 \textit{Cipai} 上の17個の LLM の評価は、2つの重要な現象を明らかにしている。
さらに,ホルムアウェアのプロンプトにより,より強力なモデルの構造と音調制御が向上し,弱いモデルも劣化する可能性が示唆された。
最後に,本サンプルの形式的正しさと文学的品質の整合性を弱く不整合的に観察する。
CCiVは、変量認識評価とより包括的な制約付き創造的生成方法の必要性を強調している。
関連論文リスト
- Capabilities and Evaluation Biases of Large Language Models in Classical Chinese Poetry Generation: A Case Study on Tang Poetry [4.720025219010595]
大規模言語モデル(LLM)は、創造的領域にますます適用されつつあるが、古典中国語の詩生成や評価において、その性能はいまだによく分かっていない。
本稿では,計算量,LCM-as-a-judgeアセスメント,人間専門家による検証を組み合わせた3段階評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-17T05:00:37Z) - From Plain Text to Poetic Form: Generating Metrically-Constrained Sanskrit Verses [22.08984009109879]
我々は、英語の散文を構造化サンスクリット詩に翻訳するためのデータセットを提案する。
我々は,距離や意味の忠実度に合わせた制約付き復号法と命令ベースの微調整について検討する。
論文 参考訳(メタデータ) (2025-06-01T03:35:46Z) - Align to Structure: Aligning Large Language Models with Structural Information [26.960069076925386]
本研究では,大規模言語モデルと人間のような談話構造を整合させて長文生成を向上する構造アライメントを提案する。
提案手法では,人間の文章に対する言論的特質に基づいて,詳細なトークンレベルの報酬を割り当てる。
論文 参考訳(メタデータ) (2025-04-04T17:40:04Z) - GPT Czech Poet: Generation of Czech Poetic Strophes with Language Models [0.4444634303550442]
チェコ語で詩を生成するための新しいモデルを提案する。
詩文中のストロフェパラメータを明示的に指定することで生成プロセスの指導がモデルの有効性を強く向上することを示す。
論文 参考訳(メタデータ) (2024-06-18T06:19:45Z) - PoetryDiffusion: Towards Joint Semantic and Metrical Manipulation in
Poetry Generation [58.36105306993046]
制御可能なテキスト生成は自然言語生成(NLG)において困難かつ有意義な分野である
本稿では,ソネット生成のための拡散モデルと中国語のSongCi詩の創始について述べる。
本モデルでは,人的評価だけでなく,意味的,計量的,総合的な性能の自動評価において,既存のモデルよりも優れる。
論文 参考訳(メタデータ) (2023-06-14T11:57:31Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部の動作や推論メカニズムを理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがCFG定義階層を正確に学習し、推論し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z) - SongNet: Rigid Formats Controlled Text Generation [51.428634666559724]
この問題に対処するために,SongNetというシンプルでエレガントなフレームワークを提案する。
フレームワークのバックボーンは、Transformerベースの自動回帰言語モデルである。
事前学習および微調整のフレームワークは、生成品質をさらに向上するために設計されている。
論文 参考訳(メタデータ) (2020-04-17T01:40:18Z) - Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework [88.57587722069239]
GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
論文 参考訳(メタデータ) (2020-03-13T14:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。