論文の概要: METRICALARGS: A Taxonomy for Studying Metrical Poetry with LLMs
- arxiv url: http://arxiv.org/abs/2510.08188v1
- Date: Thu, 09 Oct 2025 13:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.088013
- Title: METRICALARGS: A Taxonomy for Studying Metrical Poetry with LLMs
- Title(参考訳): METRICALARGS: LLMを用いた詩研究のための分類学
- Authors: Chalamalasetti Kranti, Sowmya Vajjala,
- Abstract要約: 本稿では,大規模言語モデルの評価を目的とした,詩関連NLPタスクの最初の分類法であるMetricalARGSを紹介する。
これらのタスクが既存のNLPタスクとどのように関連し、データセットや評価指標に関する疑問に対処するかについて議論する。
- 参考スコア(独自算出の注目度): 4.33144664431421
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Prior NLP work studying poetry has focused primarily on automatic poem generation and summarization. Many languages have well-studied traditions of poetic meter which enforce constraints on a poem in terms of syllable and phoneme patterns. Such advanced literary forms offer opportunities for probing deeper reasoning and language understanding in Large Language Models (LLMs) and their ability to follow strict pre-requisites and rules. In this paper, we introduce MetricalARGS, the first taxonomy of poetry-related NLP tasks designed to evaluate LLMs on metrical poetry across four dimensions: Analysis, Retrieval, Generation, and Support. We discuss how these tasks relate to existing NLP tasks, addressing questions around datasets and evaluation metrics. Taking Telugu as our example language, we illustrate how the taxonomy can be used in practice. MetricalARGS highlights the broader possibilities for understanding the capabilities and limitations of today's LLMs through the lens of metrical poetry.
- Abstract(参考訳): NLP以前の研究は、詩の自動生成と要約に重点を置いてきた。
多くの言語は詩の音節や音素パターンの制約を強制する詩韻律の伝統をよく研究している。
このような先進的な文学形式は、Large Language Models(LLM)における深い推論と言語理解の機会と、厳格な前提条件と規則に従う能力を提供する。
本稿では,4次元の韻律詩における LLM の評価を目的とした,詩関連 NLP タスクの最初の分類である MetricalARGS について紹介する。
これらのタスクが既存のNLPタスクとどのように関連し、データセットや評価指標に関する疑問に対処するかについて議論する。
Teluguを例に挙げて、分類が実際にどのように使われるかを説明します。
MetricalARGSは、計量詩のレンズを通して今日のLLMの能力と限界を理解するための幅広い可能性を強調している。
関連論文リスト
- Tell, Don't Show: Leveraging Language Models' Abstractive Retellings to Model Literary Themes [9.471374217162843]
本稿では,文学のためのシンプルなトピックモデリング手法であるRetellを提案する。
我々は,資源効率のよい生成言語モデル(LM)に,どのパスを示すかを示すよう促す。
論文 参考訳(メタデータ) (2025-05-29T06:59:21Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Assessing Dialect Fairness and Robustness of Large Language Models in Reasoning Tasks [68.33068005789116]
本稿では、標準英語とAAVEで1.2K以上の並列クエリペアを含むベンチマークであるReDialを紹介する。
我々は、GPT、Claude、Llama、Mistral、Phiモデルファミリーなど、広く使われているモデルを評価した。
我々の研究は、方言クエリにおけるLLMバイアスを分析するための体系的で客観的な枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T18:44:23Z) - Understanding Literary Texts by LLMs: A Case Study of Ancient Chinese Poetry [9.970908656435066]
詩、ジョーク、短編小説などのジャンルにおいて、多くのAIツールが登場し、新たな視点を提供する。
文学作品を評価することは、しばしば複雑で、完全に定量化することは困難であり、AI創造のさらなる発展を妨げている。
本稿では,大規模言語モデルの観点から,文学テキストのミステリーを探究する。
論文 参考訳(メタデータ) (2024-08-22T04:25:06Z) - Sonnet or Not, Bot? Poetry Evaluation for Large Models and Datasets [3.0040661953201475]
大規模言語モデル(LLM)が詩を生成、認識できるようになった。
我々はLLMが英語詩の1つの側面をいかに認識するかを評価するタスクを開発する。
我々は,現在最先端のLLMが,一般的な文体と一般的でない文体の両方を識別できることを示す。
論文 参考訳(メタデータ) (2024-06-27T05:36:53Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - A Computational Approach to Style in American Poetry [19.41186389974801]
我々は,アメリカの詩のスタイルを評価し,詩集を相互に視覚化する手法を開発した。
質的な詩批評は、様々な正書法、構文、音韻の特徴を分析するメトリクスの開発を導くのに役立ちました。
本手法は,テキストの学術研究,詩に対する直感的な個人的反応の研究,およびお気に入りの詩に基づいた読者への推薦に有効である。
論文 参考訳(メタデータ) (2023-10-13T18:49:14Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - CCPM: A Chinese Classical Poetry Matching Dataset [50.90794811956129]
本稿では,詩のマッチングによるモデルの意味的理解を評価するための新しい課題を提案する。
この課題は、現代漢訳の漢詩では、4人の候補者の中から1行の漢詩を選ばなければならない。
このデータセットを構築するために、まず中国古典詩と現代中国語の翻訳の並列データを得る。
論文 参考訳(メタデータ) (2021-06-03T16:49:03Z) - Metrical Tagging in the Wild: Building and Annotating Poetry Corpora
with Rhythmic Features [0.0]
英語とドイツ語に大規模な詩コーパスを提供し,コーパス駆動ニューラルモデルを訓練するためのコーパスを小型化した韻律的特徴をアノテートする。
音節埋め込みを用いた BiLSTM-CRF モデルは, CRF ベースラインと異なるBERT ベースアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-17T16:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。