論文の概要: Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models
- arxiv url: http://arxiv.org/abs/2201.02662v1
- Date: Fri, 7 Jan 2022 20:10:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 10:40:31.381872
- Title: Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models
- Title(参考訳): 認知に関する計算レンズ:大規模言語モデルを用いた自伝的Versus想像物語の研究
- Authors: Maarten Sap, Anna Jafarpour, Yejin Choi, Noah A. Smith, James W.
Pennebaker, and Eric Horvitz
- Abstract要約: GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
- 参考スコア(独自算出の注目度): 95.88620740809004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lifelong experiences and learned knowledge lead to shared expectations about
how common situations tend to unfold. Such knowledge enables people to
interpret story narratives and identify salient events effortlessly. We study
differences in the narrative flow of events in autobiographical versus imagined
stories using GPT-3, one of the largest neural language models created to date.
The diary-like stories were written by crowdworkers about either a recently
experienced event or an imagined event on the same topic. To analyze the
narrative flow of events of these stories, we measured sentence
*sequentiality*, which compares the probability of a sentence with and without
its preceding story context. We found that imagined stories have higher
sequentiality than autobiographical stories, and that the sequentiality of
autobiographical stories is higher when they are retold than when freshly
recalled. Through an annotation of events in story sentences, we found that the
story types contain similar proportions of major salient events, but that the
autobiographical stories are denser in factual minor events. Furthermore, in
comparison to imagined stories, autobiographical stories contain more concrete
words and words related to the first person, cognitive processes, time, space,
numbers, social words, and core drives and needs. Our findings highlight the
opportunity to investigate memory and cognition with large-scale statistical
language models.
- Abstract(参考訳): 生涯の経験と学習された知識は、共通の状況がどのように広がるかという期待を共有します。
このような知識によって、人々は物語を解釈し、敬遠した出来事を無力に特定できる。
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
日記のような物語は、最近経験した出来事や同じ話題で想像された出来事について、群衆によって書かれた。
これらの物語の出来事の物語の流れを分析するために,文章の確率と先行するストーリーコンテキストを伴わない文*シーケンス性*を測定した。
自伝的ストーリーよりも逐次性が高く,また自伝的ストーリーの逐次性は,再試行時に再記憶されたストーリーよりも高いことがわかった。
物語文における出来事の注釈を通して,物語のタイプは,主要なサルエント出来事の類似の比率を含むが,自伝的物語は実際のマイナーな出来事においてより密集していることがわかった。
さらに、想像された物語と比較すると、自伝的物語は、第一人物、認知過程、時間、空間、数、社会語、コアドライブとニーズに関するより具体的な言葉と単語を含んでいる。
本研究は,大規模統計言語モデルを用いて記憶と認知を調査する機会を明らかにする。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - The GPT-WritingPrompts Dataset: A Comparative Analysis of Character Portrayal in Short Stories [17.184517720465404]
本研究では,人間と機械の両方の生成過程から,ストーリーテリングの感情的特徴と記述的特徴を6次元で定量化し比較する。
生成した物語は6次元すべてで人間ストーリーと大きく異なり、主主人公の物語的視点やジェンダーに応じてグループ化された場合、人間世代と機械世代は同様のバイアスを呈することがわかった。
論文 参考訳(メタデータ) (2024-06-24T16:24:18Z) - Lost in Recursion: Mining Rich Event Semantics in Knowledge Graphs [2.657233098224094]
複雑な出来事に関する物語を構築・活用する方法を示す。
複雑な事象に対する異なる視点を考慮に入れるために、テキストからそのような物語をマイニングするアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-04-25T08:33:08Z) - Neural Story Planning [8.600049807193413]
本稿では,ニューラル言語モデルと因果計画を統合したストーリープロット生成手法を提案する。
我々のシステムは、物語における出来事の前提条件を推測し、その条件が真実になるイベントを推定する。
その結果,提案手法は複数の強基線よりもコヒーレントなプロットラインを生成することがわかった。
論文 参考訳(メタデータ) (2022-12-16T21:29:41Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z) - Hide-and-Tell: Learning to Bridge Photo Streams for Visual Storytelling [86.42719129731907]
視覚的ギャップを埋めるストーリーラインを明示的に学習することを提案する。
私たちは、欠落した写真であっても、ネットワークをトレーニングして、完全なプラウティブルなストーリーを作り出す。
実験では,本手法とネットワーク設計がストーリーテリングに有効であることを示す。
論文 参考訳(メタデータ) (2020-02-03T14:22:18Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。