論文の概要: Great Expectations: Unsupervised Inference of Suspense, Surprise and
Salience in Storytelling
- arxiv url: http://arxiv.org/abs/2206.09708v1
- Date: Mon, 20 Jun 2022 11:00:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 13:08:00.373660
- Title: Great Expectations: Unsupervised Inference of Suspense, Surprise and
Salience in Storytelling
- Title(参考訳): 大きな期待:ストーリーテリングにおけるサスペンス、驚き、敬遠の教師なし推論
- Authors: David Wilmot
- Abstract要約: この論文は、物語のみを読み取ることによって、一連のディープラーニングモデルを訓練する。
物語理論法は、物語におけるサリエンス、サプライズ、サリエンスを直接推測するために、ディープラーニングモデルに組み込まれた知識に適用される。
- 参考スコア(独自算出の注目度): 3.42658286826597
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Stories interest us not because they are a sequence of mundane and
predictable events but because they have drama and tension. Crucial to creating
dramatic and exciting stories are surprise and suspense. The thesis trains a
series of deep learning models via only reading stories, a self-supervised (or
unsupervised) system. Narrative theory methods (rules and procedures) are
applied to the knowledge built into deep learning models to directly infer
salience, surprise, and salience in stories. Extensions add memory and external
knowledge from story plots and from Wikipedia to infer salience on novels such
as Great Expectations and plays such as Macbeth. Other work adapts the models
as a planning system for generating original stories.
The thesis finds that applying the narrative theory to deep learning models
can align with the typical reader. In follow-up work, the insights could help
improve computer models for tasks such as automatic story writing and
assistance for writing, summarising or editing stories. Moreover, the approach
of applying narrative theory to the inherent qualities built in a system that
learns itself (self-supervised) from reading from books, watching videos, and
listening to audio is much cheaper and more adaptable to other domains and
tasks. Progress is swift in improving self-supervised systems. As such, the
thesis's relevance is that applying domain expertise with these systems may be
a more productive approach for applying machine learning in many areas of
interest.
- Abstract(参考訳): 物語が興味を持つのは、それらは平凡で予測可能な出来事の連続であるだけでなく、ドラマと緊張があるからである。
ドラマチックでエキサイティングなストーリーを作るには驚きとサスペンスが不可欠です。
この論文は、自己監督(または教師なし)システムであるストーリーのみを読むことによって、一連のディープラーニングモデルをトレーニングするものだ。
物語理論の手法(ルールと手続き)は、物語における敬礼、驚き、敬礼を直接推測するために深層学習モデルに組み込まれた知識に適用される。
拡張はストーリープロットやwikipediaからの記憶と外部の知識を追加し、大きな期待やマクベスのような戯曲に対する敬礼を推測する。
他の作業は、オリジナルのストーリーを生成するための計画システムとしてモデルを適応させる。
この論文は、物語理論をディープラーニングモデルに適用することで、典型的な読者と整合できることを示している。
フォローアップ作業において、洞察は自動ストーリ作成や、記事の執筆、要約、編集の支援といったタスクのコンピュータモデルを改善するのに役立つだろう。
さらに、物語理論を本から読み、ビデオを見たり、音声を聴いたりすることで自己(自己監督)を学習するシステムに組み込まれた本質的性質に適用するアプローチは、他の領域やタスクにずっと安価で適応しやすい。
自己監督システムの改善は迅速である。
したがって、これらのシステムにドメインの専門知識を適用することは、多くの分野において機械学習を適用するためのより生産的なアプローチである。
関連論文リスト
- Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Creating Suspenseful Stories: Iterative Planning with Large Language
Models [2.6923151107804055]
本稿では,ストーリー・サスペンスの2つの理論的基礎に根ざした,反復型提案型計画手法を提案する。
本論文は,我々の知る限りでは,大規模言語モデルを用いたサスペンスな物語生成の試みである。
論文 参考訳(メタデータ) (2024-02-27T01:25:52Z) - Acting as Inverse Inverse Planning [19.267798639508946]
このようなツールに新しい計算フレームワークを提供する。
聴衆をシミュレートするために、認知科学から確立された原則を借りる。
我々は,ストーリーテリングを,逆プランナーの推論を操作する行動を選択するタスクである「逆プランニング*逆プランニング」として扱う。
論文 参考訳(メタデータ) (2023-05-26T13:26:36Z) - Neural Story Planning [8.600049807193413]
本稿では,ニューラル言語モデルと因果計画を統合したストーリープロット生成手法を提案する。
我々のシステムは、物語における出来事の前提条件を推測し、その条件が真実になるイベントを推定する。
その結果,提案手法は複数の強基線よりもコヒーレントなプロットラインを生成することがわかった。
論文 参考訳(メタデータ) (2022-12-16T21:29:41Z) - A Corpus for Understanding and Generating Moral Stories [84.62366141696901]
機械のこれらの能力を評価するために,2つの理解タスクと2つの世代タスクを提案する。
我々は、中国語と英語で書かれた道徳的物語の新しいデータセットであるSTORALを提示する。
論文 参考訳(メタデータ) (2022-04-20T13:12:36Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Guiding Neural Story Generation with Reader Models [5.935317028008691]
本稿では、読者モデルを用いてストーリーを推論するフレームワークであるReader Models(StoRM)によるストーリー生成について紹介する。
実験により、我々のモデルは、プロットの可視性やトピックの継続など、次元のベースラインをはるかに上回り、コヒーレントでオントピー的なストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2021-12-16T03:44:01Z) - A guided journey through non-interactive automatic story generation [0.0]
この記事では,創造的システムに対する要件,創造性の3種類のモデル(計算的,社会文化的,個人的),人間の創造的記述のモデルについて述べる。
この記事は、伝達すべき主要なアイデアの自律的生成と採用、創造性を保証する基準の自律的設計が、おそらく将来の研究において最も重要なトピックの2つである、と結論付けている。
論文 参考訳(メタデータ) (2021-10-08T10:01:36Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。