論文の概要: Narrative Theory-Driven LLM Methods for Automatic Story Generation and Understanding: A Survey
- arxiv url: http://arxiv.org/abs/2602.15851v1
- Date: Fri, 23 Jan 2026 23:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.64976
- Title: Narrative Theory-Driven LLM Methods for Automatic Story Generation and Understanding: A Survey
- Title(参考訳): 物語の自動生成と理解のためのナラティブ理論駆動型LLM法:調査
- Authors: David Y. Liu, Aditya Joshi, Paul Dawson,
- Abstract要約: 本研究では,自然言語処理(NLP)研究がナラティブ研究の分野にどのように関わるかを検討する。
ナラトロジーの確立した区別を反映した継続的な取り組みのための分類法を提案する。
- 参考スコア(独自算出の注目度): 5.628092290410201
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Applications of narrative theories using large language models (LLMs) deliver promising use-cases in automatic story generation and understanding tasks. Our survey examines how natural language processing (NLP) research engages with fields of narrative studies, and proposes a taxonomy for ongoing efforts that reflect established distinctions in narratology. We discover patterns in the following: narrative datasets and tasks, narrative theories and NLP pipeline and methodological trends in prompting and fine-tuning. We highlight how LLMs enable easy connections of NLP pipelines with abstract narrative concepts and opportunities for interdisciplinary collaboration. Challenges remain in attempts to work towards any unified definition or benchmark of narrative related tasks, making model comparison difficult. For future directions, instead of the pursuit of a single, generalised benchmark for 'narrative quality', we believe that progress benefits more from efforts that focus on the following: defining and improving theory-based metrics for individual narrative attributes to incrementally improve model performance; conducting large-scale, theory-driven literary/social/cultural analysis; and creating experiments where outputs can be used to validate or refine narrative theories. This work provides a contextual foundation for more systematic and theoretically informed narrative research in NLP by providing an overview to ongoing research efforts and the broader narrative studies landscape.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いた物語理論の応用は、自動ストーリ生成および理解タスクにおいて有望なユースケースを提供する。
本研究では,ナラトロジーにおける自然言語処理(NLP)研究がナラトロジーの分野とどのように関係しているかを考察し,ナラトロジーの確立した区別を反映した継続的な取り組みのための分類法を提案する。
物語のデータセットとタスク、物語理論、NLPパイプライン、そして学習の促進と微調整における方法論的傾向について発見する。
我々は,LPMが抽象的な物語概念と学際的コラボレーションの機会と,NLPパイプラインの容易な接続を実現する方法について強調する。
モデル比較が困難になるような物語に関連したタスクの統一された定義やベンチマークに向けて努力する上で、課題は依然として残っている。
今後の方向性について,1つの一般的な「物語品質」ベンチマークを追求する代わりに,個々の物語属性の理論に基づくメトリクスの定義と改善により,モデル性能を漸進的に向上させる,大規模で理論駆動型文学・社会・文化分析を行う,物語理論の検証や洗練にアウトプットを使用できる実験を作成する,といった取り組みにより,進歩が促進されると考えている。
この研究は、NLPにおけるより体系的で理論的な物語研究のための文脈的基盤を提供し、進行中の研究活動とより広範な物語研究の展望の概要を提供する。
関連論文リスト
- Re:Verse -- Can Your VLM Read a Manga? [14.057881684215047]
現在の視覚言語モデル(VLM)は、表面レベルの認識と深い物語的推論の間に重要なギャップを示す。
本稿では,細粒度マルチモーダルアノテーション,クロスモーダル埋め込み解析,検索強化評価を組み合わせた新しい評価フレームワークを提案する。
本稿では,VLMにおける長期的物語理解に関する最初の体系的研究を,生成的ストーリーテリング,文脈的対話グラウンドニング,時間的推論という3つのコア評価軸を通じて行った。
論文 参考訳(メタデータ) (2025-08-11T22:40:05Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - MLD-EA: Check and Complete Narrative Coherence by Introducing Emotions and Actions [8.06073345741722]
感情・行動(MLD-EA)モデルを用いたミス・ロジック・ディテクタを提案する。
物語のギャップを識別し、物語の感情的・論理的流れとシームレスに統合する一貫性のある文を生成する。
この研究はNLP研究のギャップを埋め、より洗練され信頼性の高いストーリージェネレーションシステムを構築するという境界目標を前進させる。
論文 参考訳(メタデータ) (2024-12-03T23:01:21Z) - Narrative Analysis of True Crime Podcasts With Knowledge Graph-Augmented Large Language Models [8.78598447041169]
大きな言語モデル(LLM)は、複雑な物語の弧や矛盾する情報を含む物語といまだに苦労している。
最近の研究は、外部知識ベースで強化されたLLMが、結果の精度と解釈可能性を向上させることを示唆している。
本研究では,実際のポッドキャストデータの理解における知識グラフ(KG)の適用性について検討する。
論文 参考訳(メタデータ) (2024-11-01T21:49:00Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - Fine-Grained Modeling of Narrative Context: A Coherence Perspective via Retrospective Questions [48.18584733906447]
この研究は、物語の中の個々の通路が孤立するよりも密接な関係にある傾向があるという特徴から生まれた、物語理解のためのオリジナルで実践的なパラダイムを取り入れたものである。
本稿では,タスク非依存のコヒーレンス依存を明示的に表現したNarCoというグラフを定式化することにより,物語コンテキストのきめ細かいモデリングを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:14:04Z) - Are NLP Models Good at Tracing Thoughts: An Overview of Narrative
Understanding [21.900015612952146]
物語的理解は、著者の認知過程を捉え、その知識、意図、信念、欲求に関する洞察を提供する。
大きな言語モデル(LLM)は文法的に一貫性のあるテキストを生成するのに優れているが、著者の思考を理解する能力は依然として不明である。
これは物語理解の実践的な応用を妨げる。
論文 参考訳(メタデータ) (2023-10-28T18:47:57Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。