論文の概要: Contrastive Learning with Narrative Twins for Modeling Story Salience
- arxiv url: http://arxiv.org/abs/2601.07765v1
- Date: Mon, 12 Jan 2026 17:48:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.704733
- Title: Contrastive Learning with Narrative Twins for Modeling Story Salience
- Title(参考訳): ストーリー・サリエンスをモデル化するナラティブ・ツインとの対比学習
- Authors: Igor Sterner, Alex Lascarides, Frank Keller,
- Abstract要約: 本稿では,ナラティブ・サリエンスをモデル化するための対照的な学習枠組みを提案する。
我々のモデルは、物語の双子と、類似した表面的特徴を持つが異なるプロットを持つ気晴らしとを区別するように訓練されている。
ROCStories corpus や長いウィキペディア・プロット・サマリーからの短い物語の実験では、コントラスト学習されたストーリーの埋め込みは、マスク付き言語モデルベースラインよりも優れていることが示されている。
- 参考スコア(独自算出の注目度): 19.936257724469783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding narratives requires identifying which events are most salient for a story's progression. We present a contrastive learning framework for modeling narrative salience that learns story embeddings from narrative twins: stories that share the same plot but differ in surface form. Our model is trained to distinguish a story from both its narrative twin and a distractor with similar surface features but different plot. Using the resulting embeddings, we evaluate four narratologically motivated operations for inferring salience (deletion, shifting, disruption, and summarization). Experiments on short narratives from the ROCStories corpus and longer Wikipedia plot summaries show that contrastively learned story embeddings outperform a masked-language-model baseline, and that summarization is the most reliable operation for identifying salient sentences. If narrative twins are not available, random dropout can be used to generate the twins from a single story. Effective distractors can be obtained either by prompting LLMs or, in long-form narratives, by using different parts of the same story.
- Abstract(参考訳): 物語を理解するには、物語の進行に最も適した出来事を特定する必要がある。
物語双生児から物語の埋め込みを学習する物語サリエンスをモデル化するための対照的な学習枠組みについて述べる。
我々のモデルは、物語の双子と、類似した表面的特徴を持つが異なるプロットを持つ気晴らしとを区別するように訓練されている。
その結果, 塩分除去, シフト, 破壊, 要約の4つのナラトロジー的動機付け操作について検討した。
ROCStories corpus や長いウィキペディア・プロット・サマリーからの短い物語の実験では、対照的に学習された物語の埋め込みは、マスク付き言語モデルベースラインよりも優れており、要約は、有能な文章を識別するための最も信頼できる操作であることを示している。
物語の双子が利用できない場合、ランダムなドロップアウトを使用して、単一のストーリーから双子を生成することができる。
効果的なイントラクタは、LLMのプロンプトまたは長文の物語において、同じストーリーの異なる部分を使用することによって得ることができる。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - NarraSum: A Large-Scale Dataset for Abstractive Narrative Summarization [26.80378373420446]
NarraSumは大規模な物語要約データセットである。
これには122Kの物語文書が含まれており、様々なジャンルの映画やテレビドラマのプロット記述や、それに対応する抽象的な要約から集められている。
実験の結果,NarraSumにおける人間と最先端の要約モデルの間には大きなパフォーマンスギャップがあることが判明した。
論文 参考訳(メタデータ) (2022-12-02T22:51:51Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Exploring aspects of similarity between spoken personal narratives by
disentangling them into narrative clause types [13.350982138577038]
本稿では,594本の映像から10,296の物語節を含む実世界の音声物語のコーパスを紹介する。
第2に,非ナラティブな専門家に,ラボフの社会言語的個人的物語モデルの下で,これらの節に注釈を付けるよう依頼する。
第3に、最上位の節に対して84.7%のFスコアに達する分類器を訓練する。
我々のアプローチは、個人の物語を研究または表現することを目的とした機械学習の手法を情報提供することを目的としている。
論文 参考訳(メタデータ) (2020-05-26T14:34:07Z) - PlotMachines: Outline-Conditioned Generation with Dynamic Plot State
Tracking [128.76063992147016]
PlotMachinesは、動的プロット状態を追跡することによってアウトラインをコヒーレントなストーリーに変換することを学習する、ニューラルな物語モデルである。
さらに,PlotMachinesを高レベルな談話構造で強化し,モデルが物語の異なる部分に対応する筆記スタイルを学習できるようにした。
論文 参考訳(メタデータ) (2020-04-30T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。