論文の概要: Moments for Perceptive Narration Analysis Through the Emotional
Attachment of Audience to Discourse and Story
- arxiv url: http://arxiv.org/abs/2310.18273v1
- Date: Fri, 27 Oct 2023 16:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 12:56:20.300531
- Title: Moments for Perceptive Narration Analysis Through the Emotional
Attachment of Audience to Discourse and Story
- Title(参考訳): 談話と物語に対する聴取の感情アタッチメントによる知覚的ナレーション分析のためのモーメント
- Authors: Gary Bruins and Ergun Akleman
- Abstract要約: 特徴映画の物語のような直線的な物語は、互いに追従する瞬間の集合に分解できると推測する。
モーメントを、ストーリーモーメントと談話モーメントの2つの主要なタイプに分類する。
これらの普遍的な瞬間は、特定の人物や物語に対する聴衆の感情的な愛着を育むか、悪化させると信じている。
- 参考スコア(独自算出の注目度): 1.9166071976695527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, our goal is to develop a theoretical framework that can
eventually be used for analyzing the effectiveness of visual stories such as
feature films to comic books. To develop this theoretical framework, we
introduce a new story element called moments. Our conjecture is that any linear
story such as the story of a feature film can be decomposed into a set of
moments that follow each other. Moments are defined as the perception of the
actions, interactions, and expressions of all characters or a single character
during a given time period. We categorize the moments into two major types:
story moments and discourse moments. Each type of moment can further be
classified into three types, which we call universal storytelling moments. We
believe these universal moments foster or deteriorate the emotional attachment
of the audience to a particular character or the story. We present a
methodology to catalog the occurrences of these universal moments as they are
found in the story. The cataloged moments can be represented using curves or
color strips. Therefore, we can visualize a character's journey through the
story as either a 3D curve or a color strip. We also demonstrated that both
story and discourse moments can be transformed into one lump-sum attraction
parameter. The attraction parameter in time provides a function that can be
plotted graphically onto a timeline illustrating changes in the emotional
attachment of audience to a character or the story. By inspecting these
functions the story analyst can analytically decipher the moments in the story
where the attachment is being established, maintained, strengthened, or
conversely where it is languishing.
- Abstract(参考訳): 本研究の目的は,映画や漫画などのビジュアルストーリーの有効性を分析するために,最終的に使用できる理論的枠組みを開発することである。
この理論フレームワークを開発するために、モーメントと呼ばれる新しいストーリー要素を導入する。
我々の予想では、フィーチャーフィルムのストーリーのようなリニアなストーリーは、互いに追従する瞬間の集合に分解できる。
モーメントは、特定の期間におけるすべての文字または一つの文字の行動、相互作用、表現の知覚として定義される。
モーメントをストーリーモーメントと談話モーメントの2つの主要なタイプに分類する。
それぞれのモーメントはさらに3つのタイプに分類でき、それは普遍的なストーリーテリングモーメントと呼ばれる。
これらの普遍的な瞬間は、特定の人物や物語に対する聴衆の感情的な愛着を育むか、悪化させると信じている。
本稿では、これらの普遍的な瞬間の発生を物語で見られるようにカタログ化する手法を提案する。
カタログ化されたモーメントは曲線やカラーストリップを使って表現することができる。
したがって、キャラクターの物語の旅を3dカーブまたはカラーストリップとして可視化することができる。
また,ストーリーモーメントと談話モーメントを1つの総和アトラクションパラメータに変換できることを実証した。
時間内のアトラクションパラメータは、登場人物や物語に対する観客の感情的な愛着の変化を示すタイムライン上に、グラフィカルにプロットできる機能を提供する。
これらの機能を検査することで、ストーリーアナリストは、アタッチメントが確立、維持、強化、あるいは逆にランギングされているストーリーのモーメントを解析的に解読することができる。
関連論文リスト
- Generating Visual Stories with Grounded and Coreferent Characters [63.07511918366848]
本稿では,一貫した接地的・中核的な特徴を持つ視覚的ストーリーを予測できる最初のモデルを提案する。
我々のモデルは、広く使われているVISTベンチマークの上に構築された新しいデータセットに基づいて微調整されています。
また、物語における文字の豊かさとコア参照を測定するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-09-20T14:56:33Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - ContextualStory: Consistent Visual Storytelling with Spatially-Enhanced and Storyline Context [50.572907418430155]
既存の自動回帰手法は、メモリ使用量の増加、生成速度の低下、コンテキスト統合の制限に悩まされている。
本研究では,コヒーレントなストーリーフレームの生成とストーリー継続のためのフレーム拡張を目的とした新しいフレームワークであるContextualStoryを提案する。
PororoSVとFlintstonesSVベンチマークの実験では、ContextualStoryはストーリービジュアライゼーションとストーリー継続の両方において既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-07-13T05:02:42Z) - Envisioning Narrative Intelligence: A Creative Visual Storytelling
Anthology [7.962160810367763]
この創造的なビジュアルなストーリーテリングプロセスで見られるバリエーションを特徴付ける5つのテーマを提示する。
我々は、計算的なビジュアルストーリーテリングのための物語知能基準を、創造的で、信頼性があり、表現力があり、基礎があり、責任があるものとして想定する。
論文 参考訳(メタデータ) (2023-10-06T18:47:20Z) - Go Back in Time: Generating Flashbacks in Stories with Event Temporal
Prompts [35.63145672346465]
イベントの時間順序をしっかり理解する必要があるため、マシンがフラッシュバックを生成するのは難しい。
イベントとそのペアの時間的関係を符号化するために,構造化されたストーリーラインを用いてこれらの問題に対処することを提案する。
我々は、強化学習によって強化されたPlan-and-Writeフレームワークを活用して、ストーリーラインとストーリーをエンドツーエンドに生成する。
論文 参考訳(メタデータ) (2022-05-04T05:26:05Z) - ViNTER: Image Narrative Generation with Emotion-Arc-Aware Transformer [59.05857591535986]
様々な感情を「感情弧」として表現する時系列に焦点をあてた画像物語を生成するモデルViNTERを提案する。
手動評価と自動評価の両方の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-15T10:53:08Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Controllable Multi-Character Psychology-Oriented Story Generation [28.054245616281023]
SoCP(Storytelling of Multi-Character Psychology)と呼ばれる新しいモデルに基づく注意機構を提案する。
提案モデルでは,異なるキャラクタの心理状態の変化を考慮した物語を生成可能であることを示す。
実験により、生成したストーリーは、自動評価と人的評価の両方に従って、各キャラクターの心理的状態に従うことが示された。
論文 参考訳(メタデータ) (2020-10-11T12:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。