論文の概要: From We to Me: Theory Informed Narrative Shift with Abductive Reasoning
- arxiv url: http://arxiv.org/abs/2603.03320v1
- Date: Tue, 10 Feb 2026 04:10:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.148518
- Title: From We to Me: Theory Informed Narrative Shift with Abductive Reasoning
- Title(参考訳): 私たちから私へ:帰納的推論による理論インフォームド・ナラティブ・シフト
- Authors: Jaikrishna Manojkumar Patil, Divyagna Bavikadi, Kaustuv Mukherji, Ashby Steward-Nolan, Peggy-Jean Allin, Tumininu Awonuga, Joshua Garland, Paulo Shakarian,
- Abstract要約: 本稿では,社会科学理論と帰納的推論に基づくニューロシンボリックアプローチを提案する。
提案手法は,大規模言語モデルを導くために必要な特定のストーリ要素を抽出するためのルールを自動的に抽出する。
我々はLlama-4とGrok-4の両方向で同様の性能を示し、Deep-seek-R1の競合性能を示す。
- 参考スコア(独自算出の注目度): 1.0930816518774933
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective communication often relies on aligning a message with an audience's narrative and worldview. Narrative shift involves transforming text to reflect a different narrative framework while preserving its original core message--a task we demonstrate is significantly challenging for current Large Language Models (LLMs). To address this, we propose a neurosymbolic approach grounded in social science theory and abductive reasoning. Our method automatically extracts rules to abduce the specific story elements needed to guide an LLM through a consistent and targeted narrative transformation. Across multiple LLMs, abduction-guided transformed stories shifted the narrative while maintaining the fidelity with the original story. For example, with GPT-4o we outperform the zero-shot LLM baseline by 55.88% for collectivistic to individualistic narrative shift while maintaining superior semantic similarity with the original stories (40.4% improvement in KL divergence). For individualistic to collectivistic transformation, we achieve comparable improvements. We show similar performance across both directions for Llama-4, and Grok-4 and competitive performance for Deepseek-R1.
- Abstract(参考訳): 効果的なコミュニケーションは、しばしば聴衆の物語や世界観とメッセージの整合性に依存する。
ナラティブシフトでは、テキストを別のナラティブフレームワークに変換して、元のコアメッセージを保存しながら、別のナラティブフレームワークを反映します。
そこで我々は,社会科学理論と帰納的推論に基づくニューロシンボリックアプローチを提案する。
提案手法は,LLMを一貫した,目標とする物語変換を通じてガイドするために必要な特定のストーリー要素を抽出するルールを自動抽出する。
複数のLSMを通して、誘拐誘導された物語は、元の物語との忠実さを維持しながら物語を移行させた。
例えば GPT-4o では、ゼロショット LLM ベースラインを55.88% で上回り、オリジナルストーリーとのセマンティックな類似性を保ちながら、個人主義的な物語シフトを収集する。
個人主義から集合主義への転換では、同等の改善が達成されます。
我々はLlama-4とGrok-4の両方向で同様の性能を示し、Deepseek-R1の競合性能を示す。
関連論文リスト
- Codified Foreshadowing-Payoff Text Generation [67.01182739162142]
前処理と支払いは、著者が物語の初期にコミットメントを導入し、具体的で観察可能な結果を通じてそれらを解決するユビキタスな物語装置である。
既存の評価は、物語のセットアップの論理的充足よりも表面レベルのコヒーレンスに焦点をあてて、この構造的失敗を概ね見落としている。
我々は,報奨実現のレンズを通して物語の質を再構築する新しいフレームワークであるCodified Foreshadowing-Payoff Generationを紹介した。
論文 参考訳(メタデータ) (2026-01-11T19:05:37Z) - Mapping News Narratives Using LLMs and Narrative-Structured Text Embeddings [0.0]
構造主義言語理論に基づく数値的物語表現を導入する。
オープンソースLLMを用いてアクタントを抽出し,それをナラティブ構造化テキスト埋め込みに統合する。
本稿では,イスラエル・パレスチナ紛争に関するアル・ジャジーラとワシントン・ポストの新聞記事5000件を例に,本手法の分析的考察を紹介する。
論文 参考訳(メタデータ) (2024-09-10T14:15:30Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - GPT-4 Generated Narratives of Life Events using a Structured Narrative Prompt: A Validation Study [0.0]
我々は,OpenAIのGPT-4を用いて,ゼロショット構造化された物語プロンプトを用いて24,000の物語を生成する。
このデータセットから、2,880の物語を手動で分類し、出生、死亡、雇用、解雇の妥当性を評価する。
我々は分析を拡張し、残りの21,120の物語の分類を予測する。
論文 参考訳(メタデータ) (2024-02-08T06:20:01Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - Narrative Interpolation for Generating and Understanding Stories [52.463747140762145]
そこで本研究では,ユーザが特定した目的語を含むコヒーレントな物語を生成するために,モデルをガイドできる物語・物語生成制御手法を提案する。
本手法の中核はGPT-2に基づく漸進的モデルであり,前文と次文を物語の中で条件付けし,そのギャップを埋める。
終末誘導世代は、与えられた終末ガイドに忠実で忠実であり、過去のアプローチよりも手作業の少ない物語を生み出すことを示す。
論文 参考訳(メタデータ) (2020-08-17T16:45:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。