論文の概要: Do Language Models Agree with Human Perceptions of Suspense in Stories?
- arxiv url: http://arxiv.org/abs/2508.15794v1
- Date: Wed, 13 Aug 2025 02:45:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.533461
- Title: Do Language Models Agree with Human Perceptions of Suspense in Stories?
- Title(参考訳): 言語モデルは物語におけるサスペンスの人間の知覚と結びつくか?
- Authors: Glenn Matlin, Devin Zhang, Rodrigo Barroso Loza, Diana M. Popescu, Joni Isbell, Chandreyi Chakraborty, Mark Riedl,
- Abstract要約: サスペンス(英: Suspense)は、人間の複雑な認知過程を含むと信じられている物語文に対する感情的な反応である。
我々は,人間のサスペンス知覚に関する4つの基礎心理学的研究を再現し,異なるオープンウェイトおよびクローズドソースのLMと人間の反応を置換した。
著者らは,テキストが人のサスペンスを誘発する意図があるかどうかを判断できるが,テキストシーケンス内のサスペンスの相対的量と人間の判断とを正確に推定することはできないと結論づけた。
- 参考スコア(独自算出の注目度): 0.9304510304116317
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Suspense is an affective response to narrative text that is believed to involve complex cognitive processes in humans. Several psychological models have been developed to describe this phenomenon and the circumstances under which text might trigger it. We replicate four seminal psychological studies of human perceptions of suspense, substituting human responses with those of different open-weight and closed-source LMs. We conclude that while LMs can distinguish whether a text is intended to induce suspense in people, LMs cannot accurately estimate the relative amount of suspense within a text sequence as compared to human judgments, nor can LMs properly capture the human perception for the rise and fall of suspense across multiple text segments. We probe the abilities of LM suspense understanding by adversarially permuting the story text to identify what cause human and LM perceptions of suspense to diverge. We conclude that, while LMs can superficially identify and track certain facets of suspense, they do not process suspense in the same way as human readers.
- Abstract(参考訳): サスペンス(英: Suspense)は、人間の複雑な認知過程を含むと信じられている物語文に対する感情的な反応である。
この現象と、テキストが引き起こす可能性のある状況を説明するために、いくつかの心理学モデルが開発されている。
我々は,人間のサスペンス知覚に関する4つの基礎心理学的研究を再現し,異なるオープンウェイトおよびクローズドソースのLMと人間の反応を置換した。
LMは、テキストが人のサスペンスを誘発する意図があるかどうかを識別できるが、人間の判断と比較してテキストシーケンス内のサスペンスの相対的な量を正確に推定することはできず、また、複数のテキストセグメントでサスペンスの上昇と減少に対する人間の知覚を正しく捉えることもできない。
本研究は,物語テキストを逆順に順に順応することで,サスペンスに対する人間とLMの認識が分散する原因を特定することによる,サスペンス理解の能力について検討する。
LMは、特定のサスペンスの側面を表面的に識別し、追跡できるが、人間の読者と同様の方法でサスペンスを処理しない、と結論付けている。
関連論文リスト
- The Essence of Contextual Understanding in Theory of Mind: A Study on Question Answering with Story Characters [67.61587661660852]
理論・オブ・ミンド(ToM)は、人間が他者の精神状態を理解し解釈することを可能にする。
本稿では,ToMにおける個人的背景に関する包括的文脈理解の重要性を検証する。
本稿では,古典小説の登場人物をベースとした1,035ToM質問からなるCharToMベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-01-03T09:04:45Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Measuring Psychological Depth in Language Models [50.48914935872879]
本稿では,文学理論に根ざした新たな枠組みである心理的深度尺度(PDS)を紹介する。
PDS(0.72 クリッペンドルフのα)に基づいて人間が一貫して物語を評価できることを示し、我々の枠組みを実証的に検証する。
驚いたことに、GPT-4のストーリーはRedditから入手した高評価の人文記事と統計的に区別できない。
論文 参考訳(メタデータ) (2024-06-18T14:51:54Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Modelling Suspense in Short Stories as Uncertainty Reduction over Neural
Representation [17.683705809784453]
サスペンスは物語小説の重要な要素であり、読者を惹きつけ、説得力のある物語を作る。
サスペンスをモデル化する2つの方法を比較する。サプライズ、現在の状況がどれだけ予期せぬものであるかの逆向きの尺度、不確実性低減、ストーリーの継続がどれだけ予期せぬかの前方方向の尺度である。
本稿では,物語を符号化し,サプライズと不確実性を低減する階層型言語モデルを提案する。
論文 参考訳(メタデータ) (2020-04-30T16:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。