論文の概要: PRAGyan -- Connecting the Dots in Tweets
- arxiv url: http://arxiv.org/abs/2407.13909v1
- Date: Thu, 18 Jul 2024 21:49:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 19:46:13.215496
- Title: PRAGyan -- Connecting the Dots in Tweets
- Title(参考訳): PRAGyan -- ツイート中のDotを接続する
- Authors: Rahul Ravi, Gouri Ginde, Jon Rokne,
- Abstract要約: 本研究では、ツイートデータセットの因果解析を行うために、知識グラフ(KG)とLarge Language Models(LLM)の統合について検討する。
我々は、Neo4j(PRAGyan)データフォーマットに格納されたKGを利用して、因果推論に関連するコンテキストを検索する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As social media platforms grow, understanding the underlying reasons behind events and statements becomes crucial for businesses, policymakers, and researchers. This research explores the integration of Knowledge Graphs (KGs) with Large Language Models (LLMs) to perform causal analysis of tweets dataset. The LLM aided analysis techniques often lack depth in uncovering the causes driving observed effects. By leveraging KGs and LLMs, which encode rich semantic relationships and temporal information, this study aims to uncover the complex interplay of factors influencing causal dynamics and compare the results obtained using GPT-3.5 Turbo. We employ a Retrieval-Augmented Generation (RAG) model, utilizing a KG stored in a Neo4j (a.k.a PRAGyan) data format, to retrieve relevant context for causal reasoning. Our approach demonstrates that the KG-enhanced LLM RAG can provide improved results when compared to the baseline LLM (GPT-3.5 Turbo) model as the source corpus increases in size. Our qualitative analysis highlights the advantages of combining KGs with LLMs for improved interpretability and actionable insights, facilitating informed decision-making across various domains. Whereas, quantitative analysis using metrics such as BLEU and cosine similarity show that our approach outperforms the baseline by 10\%.
- Abstract(参考訳): ソーシャルメディアプラットフォームが成長するにつれて、イベントや声明の背後にある根本的な理由を理解することは、企業、政策立案者、研究者にとって重要である。
本研究では、ツイートデータセットの因果解析を行うために、知識グラフ(KG)とLarge Language Models(LLM)の統合について検討する。
LLMは、観察された効果を駆動する原因を明らかにするのに、しばしば深さを欠いた分析技術を支援した。
本研究は,深い意味関係と時間的情報をエンコードするKGとLLMを利用して,因果ダイナミクスに影響を与える要因の複雑な相互作用を明らかにし,GPT-3.5 Turboを用いて得られた結果を比較することを目的とする。
我々は、Neo4j(PRAGyan)データフォーマットに格納されたKGを利用して、因果推論に関連するコンテキストを検索する。
提案手法は, ソースコーパスのサイズが大きくなるにつれて, ベースラインLLM (GPT-3.5 Turbo) モデルと比較して, 改良された結果が得られることを示す。
我々の質的分析は、様々な領域における情報的意思決定を容易にし、解釈可能性と実行可能な洞察を向上させるために、KGとLLMを組み合わせる利点を強調している。
一方,BLEUやコサイン類似度などの指標を用いた定量的分析により,本手法がベースラインを10倍に向上することが示された。
関連論文リスト
- Simple is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - Paths-over-Graph: Knowledge Graph Empowered Large Language Model Reasoning [19.442426875488675]
我々は,KGから知識推論経路を統合することで,Large Language Models(LLM)推論を強化する新しい手法であるPaths-over-Graph(PoG)を提案する。
PoGは3段階の動的マルチホップパス探索を通じて、マルチホップとマルチエンタリティの問題に取り組む。
実験では、GPT-3.5-TurboのPoGは、GPT-4のToGを最大23.9%上回った。
論文 参考訳(メタデータ) (2024-10-18T06:57:19Z) - Causal Reasoning in Large Language Models: A Knowledge Graph Approach [6.5344638992876085]
大規模言語モデル(LLM)は一般的に、意味的に類似した情報を取得するか、あるいはチェーン・オブ・シントのような構造化されたプロンプトを通して推論能力を向上させることでパフォーマンスを向上させる。
本稿では,因果関係を利用した知識グラフに基づくランダムウォーク推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:24:44Z) - GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Research Trends for the Interplay between Large Language Models and Knowledge Graphs [5.364370360239422]
本稿では,大規模言語モデル(LLM)と知識グラフ(KG)の相乗関係について検討する。
本研究の目的は、KG質問回答、オントロジー生成、KG検証、およびLCMによるKG精度と一貫性の向上など、現在の研究におけるギャップに対処することである。
論文 参考訳(メタデータ) (2024-06-12T13:52:38Z) - Unveiling the Impact of Coding Data Instruction Fine-Tuning on Large Language Models Reasoning [64.5243480989869]
Instruction Fine-Tuning (IFT) は事前訓練されたLarge Language Models (LLM) のゼロショット能力を著しく向上させる
IFT段階におけるLLMの推論能力に及ぼす符号化データの影響について検討する。
論文 参考訳(メタデータ) (2024-05-30T23:20:25Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - ActiveRAG: Autonomously Knowledge Assimilation and Accommodation through Retrieval-Augmented Agents [49.30553350788524]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)が外部知識を活用することを可能にする。
既存のRAGモデルは、LLMを受動的情報受信者として扱うことが多い。
人間の学習行動を模倣するマルチエージェントフレームワークであるActiveRAGを紹介する。
論文 参考訳(メタデータ) (2024-02-21T06:04:53Z) - KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities and Future Opportunities [66.36633042421387]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。