論文の概要: Structuralist Approach to AI Literary Criticism: Leveraging Greimas Semiotic Square for Large Language Models
- arxiv url: http://arxiv.org/abs/2506.21360v1
- Date: Thu, 26 Jun 2025 15:10:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.155486
- Title: Structuralist Approach to AI Literary Criticism: Leveraging Greimas Semiotic Square for Large Language Models
- Title(参考訳): AIリテラリー批判に対する構造主義的アプローチ:大規模言語モデルのためのグライマス・セミオティック・スクエアを活用する
- Authors: Fangzhou Dong, Yifan Zeng, Yingpeng Sang, Hong Shen,
- Abstract要約: GLASS (Greimas Literary Analysis via Semiotic Square) は、Greimas Semiotic Square (GSS) に基づく構造化分析フレームワークである。
GLASSは物語構造と物語作品における深い意味の素早い分離を促進する。
この研究は、文芸研究と教育のためのAIベースのツールを提供し、文芸エンゲージメントの基礎となる認知メカニズムに関する洞察を提供する。
- 参考スコア(独自算出の注目度): 2.7323591332394166
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) excel in understanding and generating text but struggle with providing professional literary criticism for works with profound thoughts and complex narratives. This paper proposes GLASS (Greimas Literary Analysis via Semiotic Square), a structured analytical framework based on Greimas Semiotic Square (GSS), to enhance LLMs' ability to conduct in-depth literary analysis. GLASS facilitates the rapid dissection of narrative structures and deep meanings in narrative works. We propose the first dataset for GSS-based literary criticism, featuring detailed analyses of 48 works. Then we propose quantitative metrics for GSS-based literary criticism using the LLM-as-a-judge paradigm. Our framework's results, compared with expert criticism across multiple works and LLMs, show high performance. Finally, we applied GLASS to 39 classic works, producing original and high-quality analyses that address existing research gaps. This research provides an AI-based tool for literary research and education, offering insights into the cognitive mechanisms underlying literary engagement.
- Abstract(参考訳): 大言語モデル(LLM)は、文章の理解と生成に長けているが、深い思考と複雑な物語を持つ作品に対する専門的な文学的批評の提供に苦慮している。
本稿では, GLASS (Greimas Literary Analysis via Semiotic Square) を提案する。
GLASSは物語構造と物語作品における深い意味の素早い分離を促進する。
本稿は,48作品の詳細な分析を特徴とする,GASに基づく文学批評のための最初のデータセットを提案する。
次に, LLM-as-a-judge パラダイムを用いて, GSS に基づく文芸批評のための定量的指標を提案する。
フレームワークの結果は、複数の作品やLLMの専門家による批判と比較すると、高い性能を示している。
最後に、GLASSを39の古典作品に適用し、既存の研究ギャップに対処する独創的で高品質な分析を行った。
この研究は、文芸研究と教育のためのAIベースのツールを提供し、文芸エンゲージメントの基礎となる認知メカニズムに関する洞察を提供する。
関連論文リスト
- Literary Evidence Retrieval via Long-Context Language Models [39.174955595897366]
現代長文言語モデルは、文学的フィクションをどの程度理解しているか?
一次資料の全文をLCMに提供し,その著作からの引用を欠いた文芸的批判を伴って評価するベンチマークを構築した。
この設定は、グローバルな物語推論と密接なテキスト検定の両方を行うモデルを必要とすることによって、文学的分析の人間の過程を反映している。
論文 参考訳(メタデータ) (2025-06-03T17:19:45Z) - Large Language Models for Automated Literature Review: An Evaluation of Reference Generation, Abstract Writing, and Review Composition [2.048226951354646]
大規模言語モデル(LLM)は、文学レビューを書くことに関わる複雑なプロセスを自動化するための潜在的な解決策として登場した。
本研究は,文学書記の3つの重要な課題において,LLMの性能を自動評価する枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-18T08:42:25Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。