論文の概要: EventGround: Narrative Reasoning by Grounding to Eventuality-centric Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2404.00209v2
- Date: Sun, 7 Jul 2024 04:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 02:09:29.049875
- Title: EventGround: Narrative Reasoning by Grounding to Eventuality-centric Knowledge Graphs
- Title(参考訳): EventGround: 事象中心の知識グラフのグラウンディングによるナラティブ推論
- Authors: Cheng Jiayang, Lin Qiu, Chunkit Chan, Xin Liu, Yangqiu Song, Zheng Zhang,
- Abstract要約: 本研究では,事象中心の知識グラフに自由文を接地する問題に対処するため,EventGroundと呼ばれる初期包括的フレームワークを提案する。
これらの問題に対処するために、単純で効果的な解析と部分的な情報抽出方法を提案する。
基礎知識を取り入れた我々の枠組みは、解釈可能な証拠を提供しながら最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 41.928535719157054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Narrative reasoning relies on the understanding of eventualities in story contexts, which requires a wealth of background world knowledge. To help machines leverage such knowledge, existing solutions can be categorized into two groups. Some focus on implicitly modeling eventuality knowledge by pretraining language models (LMs) with eventuality-aware objectives. However, this approach breaks down knowledge structures and lacks interpretability. Others explicitly collect world knowledge of eventualities into structured eventuality-centric knowledge graphs (KGs). However, existing research on leveraging these knowledge sources for free-texts is limited. In this work, we propose an initial comprehensive framework called EventGround, which aims to tackle the problem of grounding free-texts to eventuality-centric KGs for contextualized narrative reasoning. We identify two critical problems in this direction: the event representation and sparsity problems. We provide simple yet effective parsing and partial information extraction methods to tackle these problems. Experimental results demonstrate that our approach consistently outperforms baseline models when combined with graph neural network (GNN) or large language model (LLM) based graph reasoning models. Our framework, incorporating grounded knowledge, achieves state-of-the-art performance while providing interpretable evidence.
- Abstract(参考訳): 物語的推論は、背景世界の豊富な知識を必要とするストーリーコンテキストにおける結果の理解に依存している。
このような知識を活用するために、既存のソリューションは2つのグループに分類することができる。
言語モデル(LM)と結果認識の目的を事前学習することで、最終的な知識を暗黙的にモデル化することに焦点を当てるものもある。
しかし、このアプローチは知識構造を分解し、解釈可能性に欠ける。
結果性に関する世界的知識を構造化された結果性中心知識グラフ(KG)に明示的に収集する者もいる。
しかし、これらの知識源を自由テキストに活用する研究は限られている。
本研究では,文脈化された物語推論のための自由文から結果中心のKGへの基底化問題に取り組むことを目的とした,EventGroundと呼ばれる初期包括的フレームワークを提案する。
この方向における2つの重要な問題、すなわちイベント表現とスパーシティ問題を特定する。
これらの問題に対処するために、単純で効果的な解析と部分的な情報抽出方法を提案する。
実験の結果,グラフニューラルネットワーク (GNN) や大規模言語モデル (LLM) を用いたグラフ推論モデルと組み合わせた場合,提案手法はベースラインモデルより一貫して優れていた。
基礎知識を取り入れた我々の枠組みは、解釈可能な証拠を提供しながら最先端のパフォーマンスを達成する。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Detecting misinformation through Framing Theory: the Frame Element-based
Model [6.4618518529384765]
私たちは、AIコミュニティの中で探索されていない領域である物語フレームのニュアンスな操作に焦点を当てています。
本稿では,事前学習された大規模言語モデルと深層ニューラルネットワークの力を利用して誤情報を検出する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T21:50:42Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z) - VEM$^2$L: A Plug-and-play Framework for Fusing Text and Structure
Knowledge on Sparse Knowledge Graph Completion [14.537509860565706]
本稿では,テキストから抽出した知識と構造化メッセージから抽出した知識を統一化するための,スパース知識グラフ上のプラグイン・アンド・プレイ・フレームワーク VEM2L を提案する。
具体的には、モデルによって得られた知識を2つの非重複部分に分割する。
また、モデルの一般化能力を融合させるために、変分EMアルゴリズムによって証明された新しい融合戦略を提案する。
論文 参考訳(メタデータ) (2022-07-04T15:50:21Z) - Ontology-enhanced Prompt-tuning for Few-shot Learning [41.51144427728086]
少ないショットラーニングは、限られたサンプル数に基づいて予測を行うことを目的としている。
知識グラフやオントロジーライブラリなどの構造化データは、様々なタスクにおける数ショット設定の恩恵を受けるために利用されてきた。
論文 参考訳(メタデータ) (2022-01-27T05:41:36Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - iReason: Multimodal Commonsense Reasoning using Videos and Natural
Language with Interpretability [0.0]
因果的知識は、堅牢なAIシステムを構築する上で不可欠である。
iReasonは、ビデオと自然言語のキャプションの両方を用いて、視覚意味のコモンセンス知識を推論するフレームワークである。
論文 参考訳(メタデータ) (2021-06-25T02:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。