論文の概要: Revisiting Northrop Frye's Four Myths Theory with Large Language Models
- arxiv url: http://arxiv.org/abs/2602.15678v1
- Date: Tue, 17 Feb 2026 16:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.118843
- Title: Revisiting Northrop Frye's Four Myths Theory with Large Language Models
- Title(参考訳): 大規模言語モデルによるノースロップ・フライの4つの神話理論の再検討
- Authors: Edirlei Soares de Lima, Marco A. Casanova, Antonio L. Furtado,
- Abstract要約: ノースロップ・フライの4つの基本的物語ジャンルの理論は文学的批判に大きな影響を与えた。
パターンに基づく分析を補完する新しいキャラクタ関数フレームワークを提案する。
4つの普遍的性格関数(主人公,メンター,アンタゴニスト,仲間)をユングの精神構造成分にマッピングすることで導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Northrop Frye's theory of four fundamental narrative genres (comedy, romance, tragedy, satire) has profoundly influenced literary criticism, yet computational approaches to his framework have focused primarily on narrative patterns rather than character functions. In this paper, we present a new character function framework that complements pattern-based analysis by examining how archetypal roles manifest differently across Frye's genres. Drawing on Jungian archetype theory, we derive four universal character functions (protagonist, mentor, antagonist, companion) by mapping them to Jung's psychic structure components. These functions are then specialized into sixteen genre-specific roles based on prototypical works. To validate this framework, we conducted a multi-model study using six state-of-the-art Large Language Models (LLMs) to evaluate character-role correspondences across 40 narrative works. The validation employed both positive samples (160 valid correspondences) and negative samples (30 invalid correspondences) to evaluate whether models both recognize valid correspondences and reject invalid ones. LLMs achieved substantial performance (mean balanced accuracy of 82.5%) with strong inter-model agreement (Fleiss' $κ$ = 0.600), demonstrating that the proposed correspondences capture systematic structural patterns. Performance varied by genre (ranging from 72.7% to 89.9%) and role (52.5% to 99.2%), with qualitative analysis revealing that variations reflect genuine narrative properties, including functional distribution in romance and deliberate archetypal subversion in satire. This character-based approach demonstrates the potential of LLM-supported methods for computational narratology and provides a foundation for future development of narrative generation methods and interactive storytelling applications.
- Abstract(参考訳): ノースロップ・フライの4つの基本的な物語ジャンル(コメディー、ロマンス、悲劇、風刺)の理論は文学的批判に大きな影響を与えてきたが、彼の枠組みに対する計算的アプローチは、主にキャラクター機能よりも物語のパターンに焦点を当てている。
本稿では,Fryeのジャンルにおいて,古細菌の役割がどう異なるかを調べることで,パターンに基づく分析を補完する新しいキャラクタ機能フレームワークを提案する。
ユングアーキタイプ理論に基づいて、ユングの精神構造成分にマッピングすることで4つの普遍的性格関数(主人公、メンター、敵、仲間)を導出する。
これらの機能はその後、原典型作品に基づく16のジャンル特有な役割に特化される。
この枠組みを検証するために、40の物語作品にまたがるキャラクタロール対応を評価するために、6つの最先端大言語モデル(LLM)を用いてマルチモデル研究を行った。
この検証では、正のサンプル(160個の有効な対応)と負のサンプル(30個の無効対応)の両方を用いて、モデルが有効な対応を認識し、無効なものを拒否するか否かを評価した。
LLMは、強いモデル間合意(Fleissの$κ$ = 0.600)でかなりの性能(平均82.5%のバランスの取れた精度)を達成し、提案された対応が体系的な構造パターンを捉えることを示した。
ジャンル(72.7%から89.9%)や役割(52.5%から99.2%)によってパフォーマンスが変化し、質的な分析から、ロマンスにおける機能的分布や風刺における故意の根本的転化など、真の物語特性を反映していることが明らかとなった。
このキャラクタベースのアプローチは、LLMが支援する計算ナラトロジー手法の可能性を実証し、物語生成手法と対話型ストーリーテリングアプリケーションの開発のための基盤を提供する。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - GPT-4 Generated Narratives of Life Events using a Structured Narrative Prompt: A Validation Study [0.0]
我々は,OpenAIのGPT-4を用いて,ゼロショット構造化された物語プロンプトを用いて24,000の物語を生成する。
このデータセットから、2,880の物語を手動で分類し、出生、死亡、雇用、解雇の妥当性を評価する。
我々は分析を拡張し、残りの21,120の物語の分類を予測する。
論文 参考訳(メタデータ) (2024-02-08T06:20:01Z) - Better Zero-Shot Reasoning with Role-Play Prompting [10.90357246745529]
ロールプレイプロンプトは、ほとんどのデータセットで標準のゼロショットアプローチを一貫して上回っている。
これは、大きな言語モデルの推論能力を増強する可能性を強調している。
論文 参考訳(メタデータ) (2023-08-15T11:08:30Z) - Feature Interactions Reveal Linguistic Structure in Language Models [2.0178765779788495]
本研究では,ポストホック解釈における特徴帰属手法の文脈における特徴的相互作用について検討した。
私たちは、正規言語分類タスクで完璧にモデルをトレーニングする灰色のボックスの方法論を開発します。
特定の構成下では、いくつかの手法が実際にモデルが獲得した文法規則を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2023-06-21T11:24:41Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - M-SENSE: Modeling Narrative Structure in Short Personal Narratives Using
Protagonist's Mental Representations [14.64546899992196]
本研究では,登場人物の心的状態の推測を解析し,物語構造の顕著な要素を自動的に検出するタスクを提案する。
本稿では,物語構造の主要な要素,特にクライマックスと解像度のマニュアルアノテーションを含む,短い個人物語のSTORIESデータセットを紹介する。
我々のモデルは、クライマックスと解像度を識別するタスクにおいて、大幅な改善を達成できる。
論文 参考訳(メタデータ) (2023-02-18T20:48:02Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z) - PART: Pre-trained Authorship Representation Transformer [52.623051272843426]
文書を書く著者は、自分のテキストに識別情報を印字する。
以前の作品では、手作りの機能や分類タスクを使って著者モデルを訓練していた。
セマンティクスの代わりにテキストの埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。