論文の概要: ODA: Observation-Driven Agent for integrating LLMs and Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2404.07677v1
- Date: Thu, 11 Apr 2024 12:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 14:09:30.840850
- Title: ODA: Observation-Driven Agent for integrating LLMs and Knowledge Graphs
- Title(参考訳): ODA: LLMと知識グラフの統合のための観察駆動エージェント
- Authors: Lei Sun, Zhengwei Tao, Youdi Li, Hiroshi Arakawa,
- Abstract要約: 我々は、知識グラフ(KG)に関わるタスクに適した新しいAIフレームワークである観測駆動エージェント(ODA)を紹介する。
織田氏は、グローバルな観察を通じてKG推論能力を導入し、観察、行動、反射の循環的パラダイムを通じて推論能力を向上させる。
ODAはいくつかのデータセットで最先端のパフォーマンスを示し、特に12.87%と8.9%の精度向上を実現している。
- 参考スコア(独自算出の注目度): 4.3508051546373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of Large Language Models (LLMs) and knowledge graphs (KGs) has achieved remarkable success in various natural language processing tasks. However, existing methodologies that integrate LLMs and KGs often navigate the task-solving process solely based on the LLM's analysis of the question, overlooking the rich cognitive potential inherent in the vast knowledge encapsulated in KGs. To address this, we introduce Observation-Driven Agent (ODA), a novel AI agent framework tailored for tasks involving KGs. ODA incorporates KG reasoning abilities via global observation that enhances reasoning capabilities through a cyclical paradigm of observation, action, and reflection. Confronting the exponential explosion of knowledge during observation, we innovatively design a recursive observation mechanism. Subsequently, we integrate the observed knowledge into the action and reflection modules. Through extensive experiments, ODA demonstrates state-of-the-art performance on several datasets, notably achieving accuracy improvements of 12.87% and 8.9%.
- Abstract(参考訳): 大規模言語モデル(LLM)と知識グラフ(KG)の統合は、様々な自然言語処理タスクにおいて顕著な成功を収めた。
しかしながら、LLMとKGを統合する既存の方法論は、KGにカプセル化されている膨大な知識に固有の豊かな認知可能性を見越して、LCMの分析に基づいてタスク解決プロセスをナビゲートすることが多い。
この問題に対処するため、我々は、KGsに関わるタスクに適した、新しいAIエージェントフレームワークであるObservatory-Driven Agent (ODA)を紹介した。
織田氏は、グローバルな観察を通じてKG推論能力を導入し、観察、行動、反射の循環的パラダイムを通じて推論能力を向上させる。
観察中に知識が爆発的に爆発するのに対して,我々は再帰的な観察機構を革新的に設計する。
その後、観察された知識をアクション・リフレクション・モジュールに統合する。
広範な実験を通じて、Odaはいくつかのデータセットで最先端のパフォーマンスを示し、特に12.87%と8.9%の精度向上を実現している。
関連論文リスト
- Fusing Domain-Specific Content from Large Language Models into Knowledge Graphs for Enhanced Zero Shot Object State Classification [0.8232137862012223]
本研究では,Large Language Models (LLMs) のドメイン固有情報の生成と提供における可能性について検討する。
これを実現するために、LLMは知識グラフと事前訓練されたセマンティックベクターを利用するパイプラインに統合される。
その結果,LLMをベースとした組込みと汎用的な事前学習型組込みを組み合わせることで,大幅な性能向上が期待できることがわかった。
論文 参考訳(メタデータ) (2024-03-18T18:08:44Z) - Knowledge Graph Large Language Model (KG-LLM) for Link Prediction [41.471553288898114]
本稿では,知識グラフにおけるマルチホップリンク予測を強化するために,知識グラフ大言語モデルフレームワーク(KG-LLM)を提案する。
知識グラフをチェーン・オブ・シークレットのプロンプトに変換することで、我々のフレームワークは、エンティティの潜在表現とその相互関係を識別し、学習するように設計されている。
論文 参考訳(メタデータ) (2024-03-12T04:47:29Z) - Enhancing Multi-Hop Knowledge Graph Reasoning through Reward Shaping
Techniques [5.561202401558972]
本研究は,マルチホップ知識グラフ(KG-R)に内在する複雑さをナビゲートするための強化学習戦略,特にREINFORCEアルゴリズムの活用について検討する。
UMLS(Unified Medical Language System)ベンチマークデータセットをリッチでスパースなサブセットに分割することにより、トレーニング済みBERT埋め込みとPrompt Learning手法の有効性を検証し、報酬形成プロセスを洗練させる。
論文 参考訳(メタデータ) (2024-03-09T05:34:07Z) - ActiveRAG: Revealing the Treasures of Knowledge via Active Learning [48.27288876691973]
Retrieval Augmented Generation (RAG) は、Large Language Models (LLM) の新しいパラダイムを導入した。
我々は、受動的知識獲得から能動的学習機構に移行する革新的なRAGフレームワークであるActiveRAGを提案する。
実験の結果,ActiveRAGは従来のRAGモデルを超え,質問応答データセットの5%の改善を実現していることがわかった。
論文 参考訳(メタデータ) (2024-02-21T06:04:53Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - LLMs for Knowledge Graph Construction and Reasoning: Recent Capabilities
and Future Opportunities [68.86209486449924]
知識グラフ(KG)の構築と推論のための大規模言語モデル(LLM)の評価。
我々は,LLMと外部ソースを用いたマルチエージェントベースのアプローチであるAutoKGを提案し,KGの構築と推論を行う。
論文 参考訳(メタデータ) (2023-05-22T15:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。