論文の概要: LLMs Got Rhythm? Hybrid Phonological Filtering for Greek Poetry Rhyme Detection and Generation
- arxiv url: http://arxiv.org/abs/2601.09631v2
- Date: Wed, 21 Jan 2026 18:18:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 14:56:59.979203
- Title: LLMs Got Rhythm? Hybrid Phonological Filtering for Greek Poetry Rhyme Detection and Generation
- Title(参考訳): LLMs Got Rhythm? ギリシャ詩の韻律検出と生成のためのハイブリッド音韻フィルタ
- Authors: Stergios Chatzikyriakidis, Anastasia Natsina,
- Abstract要約: LLM(Large Language Models)は、韻律検出や生成のような音韻論的に基底的な現象に対処する。
本稿では,LLMと決定論的音韻論的アルゴリズムを組み合わせて,正確な韻律識別・分析・生成を実現するハイブリッドシステムを提案する。
我々は,Anemoskala と Interwar Poetry corpora から派生した4万以上の韻律を重要かつ厳格に浄化したコーパスを,今後の研究を支援するためにリリースする。
- 参考スコア(独自算出の注目度): 0.14219395549516345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs), despite their remarkable capabilities across NLP tasks, struggle with phonologically-grounded phenomena like rhyme detection and generation. This is even more evident in lower-resource languages such as Modern Greek. In this paper, we present a hybrid system that combines LLMs with deterministic phonological algorithms to achieve accurate rhyme identification/analysis and generation. Our approach implements a comprehensive taxonomy of Greek rhyme types, including Pure, Rich, Imperfect, Mosaic, and Identical Pre-rhyme Vowel (IDV) patterns, and employs an agentic generation pipeline with phonological verification. We evaluate multiple prompting strategies (zero-shot, few-shot, Chain-of-Thought, and RAG-augmented) across several LLMs including Claude 3.7 and 4.5, GPT-4o, Gemini 2.0 and open-weight models like Llama 3.1 8B and 70B and Mistral Large. Results reveal a significant "Reasoning Gap": while native-like models (Claude 3.7) perform intuitively (40\% accuracy in identification), reasoning-heavy models (Claude 4.5) achieve state-of-the-art performance (54\%) only when prompted with Chain-of-Thought. Most critically, pure LLM generation fails catastrophically (under 4\% valid poems), while our hybrid verification loop restores performance to 73.1\%. We release our system and a crucial, rigorously cleaned corpus of 40,000+ rhymes, derived from the Anemoskala and Interwar Poetry corpora, to support future research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、NLPタスクにまたがる顕著な能力にもかかわらず、韻律検出や生成のような音韻学的に基底的な現象と競合する。
これは、現代ギリシア語のような低資源の言語でさらに顕著である。
本稿では,LLMと決定論的音韻アルゴリズムを組み合わせて,正確な韻律識別・分析・生成を実現するハイブリッドシステムを提案する。
提案手法では,Pure, Rich, Imperfect, Mosaic, Identical Pre-Rhyme Vowel (IDV) パターンを含むギリシャ語の韻律型を包括的に分類し,音韻的検証を伴うエージェント生成パイプラインを用いる。
我々は,Claude 3.7,4.5,GPT-4o,Gemini 2.0,Llama 3.1 8B,70B,Mistral Largeなどのオープンウェイトモデルを含む複数のLCMにおいて,複数のプロンプト戦略(ゼロショット,少数ショット,Chain-of-Thought,RAG-augmented)を評価した。
ネイティブライクなモデル(Claude 3.7)は直感的に(識別の正確さは40\%)、推論重大モデル(Claude 4.5)はチェーン・オブ・サート(Chain-of-Thought)によってのみ、最先端のパフォーマンス(54\%)を達成する。
最も重要なのは、純粋なLLM生成は破滅的に失敗する(有効な詩は4\%)一方で、我々のハイブリッド検証ループはパフォーマンスを73.1\%に回復する。
我々は,Anemoskala と Interwar Poetry corpora から派生した4万以上の韻律を重要かつ厳格に浄化したコーパスを,今後の研究を支援するためにリリースする。
関連論文リスト
- Evaluating Modern Large Language Models on Low-Resource and Morphologically Rich Languages:A Cross-Lingual Benchmark Across Cantonese, Japanese, and Turkish [12.286855282078305]
GPT-4o, GPT-4, Claude3.5Sonnet, LLaMA3.1, MistralLarge2, LLaMA-2Chat13B, Mistral7B Instructを評価した。
我々のベンチマークは、オープンドメイン質問応答、文書要約、英語からXへの翻訳、文化的根拠のある対話の4つのタスクにまたがっている。
論文 参考訳(メタデータ) (2025-11-05T22:09:53Z) - DialectGen: Benchmarking and Improving Dialect Robustness in Multimodal Generation [111.94720088481614]
多モーダル生成モデルは方言テキスト入力を効果的に生成できるのか?
6つの共通英語方言にまたがる大規模ベンチマークを構築した。
マルチモーダル生成モデルのための一般的なエンコーダに基づく緩和戦略を設計する。
論文 参考訳(メタデータ) (2025-10-16T17:56:55Z) - Vuyko Mistral: Adapting LLMs for Low-Resource Dialectal Translation [0.0]
本稿では,ウクライナのフツル方言に大規模な言語モデルを適用するための最初の取り組みを紹介する。
我々は、9852語対標準ウクライナ語の文対と7320語の単語マッピングの辞書の並列コーパスを作成しました。
論文 参考訳(メタデータ) (2025-06-09T10:30:35Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - Whose LLM is it Anyway? Linguistic Comparison and LLM Attribution for GPT-3.5, GPT-4 and Bard [5.500249707065662]
LLM(Large Language Model)は、人間の品質に類似したテキストを生成する能力を持つ。
我々は,最もポピュラーな3つのLLMから生成されるテキストの語彙,部分音声(POS)分布,依存性分布,感情を多様な入力と比較した。
その結果、言語学的に有意な変化を示し、88%の精度で所与のテキストをLLM起源とみなすことができた。
論文 参考訳(メタデータ) (2024-02-22T13:25:17Z) - REPLUG: Retrieval-Augmented Black-Box Language Models [101.60145719119373]
REPLUGは、言語モデル(LM)をブラックボックスとして扱い、調整可能な検索モデルで拡張する検索拡張言語モデリングフレームワークである。
その結果,REPLUG は言語モデリングにおける GPT-3 (175B) の性能を6.3%向上させるとともに,5ショットMMLU における Codex の性能を5.1%向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-30T04:18:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。