論文の概要: M-SENSE: Modeling Narrative Structure in Short Personal Narratives Using
Protagonist's Mental Representations
- arxiv url: http://arxiv.org/abs/2302.09418v1
- Date: Sat, 18 Feb 2023 20:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:47:58.228805
- Title: M-SENSE: Modeling Narrative Structure in Short Personal Narratives Using
Protagonist's Mental Representations
- Title(参考訳): M-SENSE:主人公の心的表現を用いた短い個人的物語の物語構造モデリング
- Authors: Prashanth Vijayaraghavan, Deb Roy
- Abstract要約: 本研究では,登場人物の心的状態の推測を解析し,物語構造の顕著な要素を自動的に検出するタスクを提案する。
本稿では,物語構造の主要な要素,特にクライマックスと解像度のマニュアルアノテーションを含む,短い個人物語のSTORIESデータセットを紹介する。
我々のモデルは、クライマックスと解像度を識別するタスクにおいて、大幅な改善を達成できる。
- 参考スコア(独自算出の注目度): 14.64546899992196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Narrative is a ubiquitous component of human communication. Understanding its
structure plays a critical role in a wide variety of applications, ranging from
simple comparative analyses to enhanced narrative retrieval, comprehension, or
reasoning capabilities. Prior research in narratology has highlighted the
importance of studying the links between cognitive and linguistic aspects of
narratives for effective comprehension. This interdependence is related to the
textual semantics and mental language in narratives, referring to characters'
motivations, feelings or emotions, and beliefs. However, this interdependence
is hardly explored for modeling narratives. In this work, we propose the task
of automatically detecting prominent elements of the narrative structure by
analyzing the role of characters' inferred mental state along with linguistic
information at the syntactic and semantic levels. We introduce a STORIES
dataset of short personal narratives containing manual annotations of key
elements of narrative structure, specifically climax and resolution. To this
end, we implement a computational model that leverages the protagonist's mental
state information obtained from a pre-trained model trained on social
commonsense knowledge and integrates their representations with contextual
semantic embed-dings using a multi-feature fusion approach. Evaluating against
prior zero-shot and supervised baselines, we find that our model is able to
achieve significant improvements in the task of identifying climax and
resolution.
- Abstract(参考訳): 物語は人間のコミュニケーションのユビキタスな要素である。
その構造を理解することは、単純な比較分析から強化されたナラティブ検索、理解、推論能力まで幅広い応用において重要な役割を果たす。
ナラトロジーの先行研究は、効果的な理解のために物語の認知的側面と言語的側面の関係を研究することの重要性を強調した。
この相互依存は物語におけるテクスト意味論と精神言語に関係しており、登場人物の動機、感情、感情、信念を参照している。
しかし、この相互依存は物語をモデル化するためにはほとんど研究されていない。
本研究では,構文・意味レベルでの言語情報とともに,登場人物の推測された精神状態の役割を解析し,物語構造の特徴的要素を自動的に検出するタスクを提案する。
本稿では,物語構造の重要な要素,特にクライマックスと解像度のマニュアルアノテーションを含む,短い個人物語のSTORIESデータセットを紹介する。
そこで本稿では,社会的コモンセンス知識に基づいて訓練された事前学習モデルから得られた,主人公の精神状態情報を活用する計算モデルを実装し,その表現を多機能融合アプローチを用いて文脈意味埋め込みと統合する。
従来のゼロショットと教師付きベースラインに対して評価すると,我々のモデルはクライマックスと解像度を識別するタスクにおいて,大幅な改善を達成できることがわかった。
関連論文リスト
- BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Mapping News Narratives Using LLMs and Narrative-Structured Text Embeddings [0.0]
構造主義言語理論に基づく数値的物語表現を導入する。
オープンソースLLMを用いてアクタントを抽出し,それをナラティブ構造化テキスト埋め込みに統合する。
本稿では,イスラエル・パレスチナ紛争に関するアル・ジャジーラとワシントン・ポストの新聞記事5000件を例に,本手法の分析的考察を紹介する。
論文 参考訳(メタデータ) (2024-09-10T14:15:30Z) - Are NLP Models Good at Tracing Thoughts: An Overview of Narrative
Understanding [21.900015612952146]
物語的理解は、著者の認知過程を捉え、その知識、意図、信念、欲求に関する洞察を提供する。
大きな言語モデル(LLM)は文法的に一貫性のあるテキストを生成するのに優れているが、著者の思考を理解する能力は依然として不明である。
これは物語理解の実践的な応用を妨げる。
論文 参考訳(メタデータ) (2023-10-28T18:47:57Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Who says like a style of Vitamin: Towards Syntax-Aware
DialogueSummarization using Multi-task Learning [2.251583286448503]
個々の話者からの発声と独特の統語構造との関係に焦点をあてる。
話者は、音声プリントのような言語情報を含むことができる独自のテキストスタイルを持つ。
構文認識情報と対話要約の両方をマルチタスクで学習する。
論文 参考訳(メタデータ) (2021-09-29T05:30:39Z) - Modeling Human Mental States with an Entity-based Narrative Graph [31.275150336289578]
本稿では,物語中の文字の内部状態をモデル化するEntity-based Narrative Graph (ENG)を提案する。
私たちは、エンティティ、それらの相互作用、それらが現れるコンテキストを明示的にモデル化し、それらのための豊富な表現を学びます。
性格的精神状態の予測と欲求充足の2つの物語的理解タスクに基づいてモデルを評価し,質的分析を行う。
論文 参考訳(メタデータ) (2021-04-14T19:05:19Z) - Structured Attention for Unsupervised Dialogue Structure Induction [110.12561786644122]
本稿では、構造化された注意層を離散潜在状態を持つ変化型リカレントニューラルネットワーク(VRNN)モデルに組み込んで、教師なしの方法で対話構造を学ぶことを提案する。
バニラVRNNと比較して、構造化された注意は、構造的帰納バイアスを強制しながら、ソース文の埋め込みの異なる部分にフォーカスすることができる。
論文 参考訳(メタデータ) (2020-09-17T23:07:03Z) - Tension Space Analysis for Emergent Narrative [0.1784936803975635]
本稿では,可能世界のナラトロジー理論を用いた創発的物語への新たなアプローチを提案する。
本研究では,このようなシステムにおける作業設計を,表現的範囲分析に触発された形式的解析手法を用いて理解する方法を実証する。
最後に、スケッチベースのインタフェースを用いて、創発的な物語システムのために、コンテンツを作成できる新しい方法を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:26:09Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。