論文の概要: On Narrative Information and the Distillation of Stories
- arxiv url: http://arxiv.org/abs/2211.12423v1
- Date: Tue, 22 Nov 2022 17:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:23:49.683025
- Title: On Narrative Information and the Distillation of Stories
- Title(参考訳): 物語情報と物語の蒸留について
- Authors: Dylan R. Ashley, Vincent Herrmann, Zachary Friggstad, J\"urgen
Schmidhuber
- Abstract要約: 現代のニューラルネットワークがいかにして物語を蒸留するかを示す。
次に、進化的アルゴリズムがこれを活用して、一連の物語テンプレートを抽出する方法を実証する。
その過程で、既存のアルバムにこれらの物語情報テンプレートが存在するという強い統計的証拠を与える。
- 参考スコア(独自算出の注目度): 4.224809458327516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The act of telling stories is a fundamental part of what it means to be
human. This work introduces the concept of narrative information, which we
define to be the overlap in information space between a story and the items
that compose the story. Using contrastive learning methods, we show how modern
artificial neural networks can be leveraged to distill stories and extract a
representation of the narrative information. We then demonstrate how
evolutionary algorithms can leverage this to extract a set of narrative
templates and how these templates -- in tandem with a novel curve-fitting
algorithm we introduce -- can reorder music albums to automatically induce
stories in them. In the process of doing so, we give strong statistical
evidence that these narrative information templates are present in existing
albums. While we experiment only with music albums here, the premises of our
work extend to any form of (largely) independent media.
- Abstract(参考訳): 物語を語る行為は、それが人間であることの基本的な部分である。
本稿では,物語情報の概念を紹介し,物語を構成する要素とストーリー間の情報空間の重なりを規定する。
対照的な学習手法を用いて、現代のニューラルネットワークを用いて物語を蒸留し、物語情報の表現を抽出する方法を示す。
次に、進化的アルゴリズムがこれを利用して一連の物語テンプレートを抽出し、これらのテンプレートが、私たちが導入した新しい曲線フィッティングアルゴリズムと組み合わせて、音楽アルバムを並べ替えて、それらのストーリーを自動的に誘導する方法をデモする。
その過程で、これらの物語情報テンプレートが既存のアルバムに存在しているという強い統計的証拠を与える。
ここでは音楽アルバムのみを実験していますが、私たちの作品の前提は、(ほぼ)独立したメディアのあらゆる形態にまで広がっています。
関連論文リスト
- Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - SCStory: Self-supervised and Continual Online Story Discovery [53.72745249384159]
SCStoryは、素早く公開されたニュース記事ストリームを人間のアノテーションなしでリアルタイムで消化するのに役立つ。
SCStoryは、ニュース記事ストリームのストーリー指向適応モデリングという新しいアイデアを取り入れて、自己指導的かつ継続的な学習を取り入れている。
論文 参考訳(メタデータ) (2023-11-27T04:50:01Z) - Album Storytelling with Iterative Story-aware Captioning and Large
Language Models [86.6548090965982]
私たちはアルバムを鮮明で一貫性のあるストーリーに変える方法を研究し、これは「アルバム・ストーリーテリング」と呼ぶタスクである。
近年のLarge Language Models (LLMs) の進歩により、長いコヒーレントなテキストを生成することが可能になった。
本手法は,アルバムのコヒーレンスと鮮明さを向上し,より正確で魅力的なストーリーを効果的に生成する。
論文 参考訳(メタデータ) (2023-05-22T11:45:10Z) - NarraSum: A Large-Scale Dataset for Abstractive Narrative Summarization [26.80378373420446]
NarraSumは大規模な物語要約データセットである。
これには122Kの物語文書が含まれており、様々なジャンルの映画やテレビドラマのプロット記述や、それに対応する抽象的な要約から集められている。
実験の結果,NarraSumにおける人間と最先端の要約モデルの間には大きなパフォーマンスギャップがあることが判明した。
論文 参考訳(メタデータ) (2022-12-02T22:51:51Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Guiding Neural Story Generation with Reader Models [5.935317028008691]
本稿では、読者モデルを用いてストーリーを推論するフレームワークであるReader Models(StoRM)によるストーリー生成について紹介する。
実験により、我々のモデルは、プロットの可視性やトピックの継続など、次元のベースラインをはるかに上回り、コヒーレントでオントピー的なストーリーを生み出すことが示された。
論文 参考訳(メタデータ) (2021-12-16T03:44:01Z) - CompRes: A Dataset for Narrative Structure in News [2.4578723416255754]
ニュースメディアにおける物語構造のための最初のデータセットであるCompResを紹介する。
アノテーション付きデータセットを使用して、複数の教師付きモデルをトレーニングし、異なる物語要素を識別します。
論文 参考訳(メタデータ) (2020-07-09T15:21:59Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z) - Hide-and-Tell: Learning to Bridge Photo Streams for Visual Storytelling [86.42719129731907]
視覚的ギャップを埋めるストーリーラインを明示的に学習することを提案する。
私たちは、欠落した写真であっても、ネットワークをトレーニングして、完全なプラウティブルなストーリーを作り出す。
実験では,本手法とネットワーク設計がストーリーテリングに有効であることを示す。
論文 参考訳(メタデータ) (2020-02-03T14:22:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。