論文の概要: Interactive Narrative Analytics: Bridging Computational Narrative Extraction and Human Sensemaking
- arxiv url: http://arxiv.org/abs/2601.11459v1
- Date: Fri, 16 Jan 2026 17:34:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.582951
- Title: Interactive Narrative Analytics: Bridging Computational Narrative Extraction and Human Sensemaking
- Title(参考訳): 対話型ナラティブ分析: 計算ナラティブ抽出とヒューマンセンス作成の橋渡し
- Authors: Brian Keith,
- Abstract要約: 本稿では,対話型ナラティブ分析(Interactive Narrative Analytics,INA)の新たな分野として,計算的ナラティブ抽出と対話型視覚分析を組み合わせることで,センスメイキングを支援する。
INAアプローチは、人間の解釈を促進する計算方法や視覚インタフェースを通じて、物語構造を対話的に探索することを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Information overload and misinformation create significant challenges in extracting meaningful narratives from large news collections. This paper defines the nascent field of Interactive Narrative Analytics (INA), which combines computational narrative extraction with interactive visual analytics to support sensemaking. INA approaches enable the interactive exploration of narrative structures through computational methods and visual interfaces that facilitate human interpretation. The field faces challenges in scalability, interactivity, knowledge integration, and evaluation standardization, yet offers promising opportunities across news analysis, intelligence, scientific literature exploration, and social media analysis. Through the combination of computational and human insight, INA addresses complex challenges in narrative sensemaking.
- Abstract(参考訳): 情報過剰と誤報は、大きなニュースコレクションから有意義な物語を抽出する上で重要な課題を生み出している。
本稿では,対話型ナラティブ分析(Interactive Narrative Analytics,INA)の新たな分野として,計算的ナラティブ抽出と対話型視覚分析を組み合わせることで,センスメイキングを支援する。
INAアプローチは、人間の解釈を促進する計算方法や視覚インタフェースを通じて、物語構造を対話的に探索することを可能にする。
この分野は、スケーラビリティ、対話性、知識の統合、評価の標準化の課題に直面しているが、ニュース分析、知性、科学文献探索、ソーシャルメディア分析にまたがる有望な機会を提供する。
計算と人間の洞察を組み合わせることで、INAは物語のセンスメイキングにおける複雑な課題に対処する。
関連論文リスト
- InterChat: Enhancing Generative Visual Analytics using Multimodal Interactions [22.007942964950217]
視覚要素の直接操作と自然言語入力を組み合わせた生成的視覚分析システムであるInterChatを開発した。
この統合により、正確なインテント通信が可能になり、プログレッシブで視覚的に駆動された探索データ分析をサポートする。
論文 参考訳(メタデータ) (2025-03-06T05:35:19Z) - Narrative Action Evaluation with Prompt-Guided Multimodal Interaction [60.281405999483]
ナラティブ・アクション・アセスメント(NAE)は、行動の実行を評価する専門家のコメントを作成することを目的としている。
NAEは、物語の柔軟性と評価の厳格さの両方を必要とするため、より困難なタスクです。
本稿では,様々な情報モダリティ間のインタラクションを容易にするための,プロンプト誘導型マルチモーダルインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:55:07Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - M-SENSE: Modeling Narrative Structure in Short Personal Narratives Using
Protagonist's Mental Representations [14.64546899992196]
本研究では,登場人物の心的状態の推測を解析し,物語構造の顕著な要素を自動的に検出するタスクを提案する。
本稿では,物語構造の主要な要素,特にクライマックスと解像度のマニュアルアノテーションを含む,短い個人物語のSTORIESデータセットを紹介する。
我々のモデルは、クライマックスと解像度を識別するタスクにおいて、大幅な改善を達成できる。
論文 参考訳(メタデータ) (2023-02-18T20:48:02Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Enabling Harmonious Human-Machine Interaction with Visual-Context
Augmented Dialogue System: A Review [40.49926141538684]
Visual Context Augmented Dialogue System (VAD) は、マルチモーダル情報を知覚し理解することで人間とコミュニケーションする能力を持つ。
VADは、エンゲージメントとコンテキスト対応の応答を生成する可能性を秘めている。
論文 参考訳(メタデータ) (2022-07-02T09:31:37Z) - Tension Space Analysis for Emergent Narrative [0.1784936803975635]
本稿では,可能世界のナラトロジー理論を用いた創発的物語への新たなアプローチを提案する。
本研究では,このようなシステムにおける作業設計を,表現的範囲分析に触発された形式的解析手法を用いて理解する方法を実証する。
最後に、スケッチベースのインタフェースを用いて、創発的な物語システムのために、コンテンツを作成できる新しい方法を提案する。
論文 参考訳(メタデータ) (2020-04-22T19:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。