論文の概要: Counter-intuitive: Large Language Models Can Better Understand Knowledge
Graphs Than We Thought
- arxiv url: http://arxiv.org/abs/2402.11541v1
- Date: Sun, 18 Feb 2024 10:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 20:34:48.065131
- Title: Counter-intuitive: Large Language Models Can Better Understand Knowledge
Graphs Than We Thought
- Title(参考訳): 逆直感的:大きな言語モデルは、思った以上に知識グラフを理解できる
- Authors: Xinbang Dai, Yuncheng Hua, Tongtong Wu, Yang Sheng, Guilin Qi
- Abstract要約: 本稿では、知識グラフ(KG)を用いて、大規模言語モデル(LLM)推論機能の実現と幻覚の低減を図る。
我々は、複雑な質問応答(CQA)を用いて、LLMのKG知識の理解能力を評価する。
初期の期待とは対照的に,LLMは乱雑でノイズが多く,線形化されたKGの知識を効果的に扱えることが明らかとなった。
- 参考スコア(独自算出の注目度): 14.48592647192298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the method of enhancing large language models' (LLMs') reasoning
ability and reducing their hallucinations through the use of knowledge graphs
(KGs) has received widespread attention, the exploration of how to enable LLMs
to integrate the structured knowledge in KGs on-the-fly remains inadequate.
Researchers often co-train KG embeddings and LLM parameters to equip LLMs with
the ability of comprehending KG knowledge. However, this resource-hungry
training paradigm significantly increases the model learning cost and is also
unsuitable for non-open-source, black-box LLMs. In this paper, we employ
complex question answering (CQA) as a task to assess the LLM's ability of
comprehending KG knowledge. We conducted a comprehensive comparison of KG
knowledge injection methods (from triples to natural language text), aiming to
explore the optimal prompting method for supplying KG knowledge to LLMs,
thereby enhancing their comprehension of KG. Contrary to our initial
expectations, our analysis revealed that LLMs effectively handle messy, noisy,
and linearized KG knowledge, outperforming methods that employ well-designed
natural language (NL) textual prompts. This counter-intuitive finding provides
substantial insights for future research on LLMs' comprehension of structured
knowledge.
- Abstract(参考訳): 大規模言語モデル(LLM)の推論能力の向上と知識グラフ(KG)の利用による幻覚の低減は広く注目されているが、LLMがKGのオンザフライでの構造化知識を統合する方法の探求はいまだ不十分である。
研究者はしばしば、KGの知識を理解する能力を備えたLLMに、KG埋め込みとLLMパラメータを併用する。
しかし、このリソースハーグリートレーニングパラダイムはモデル学習コストを大幅に向上させ、非オープンソースでブラックボックスのLCMにも適さない。
本稿では,複雑な質問応答(CQA)を用いて,KG知識を解釈するLLMの能力を評価する。
我々は,KG知識をLLMに供給する最適なプロンプト法を検討することを目的として,KG知識注入法(トリプルから自然言語テキストまで)の総合的な比較を行った。
初期の期待とは対照的に,llmは乱雑でうるさく,線形化されたkg知識を効果的に処理し,高度に設計された自然言語(nl)テキストプロンプトを用いた手法よりも優れていた。
この反直感的な発見は、LLMの構造化知識の理解に関する将来の研究に重要な洞察を与える。
関連論文リスト
- KnowledgeNavigator: Leveraging Large Language Models for Enhanced
Reasoning over Knowledge Graph [11.808990571175269]
大規模言語モデル(LLM)は、その強力な自然言語理解とゼロショット能力によって、様々な下流タスクにおいて優れたパフォーマンスを達成しているが、LLMは依然として知識制限に悩まされている。
本稿では,知識グラフから外部知識を効率的に正確に検索し,これらの課題に対処する新しいフレームワークであるKnowledgeNavigatorを提案する。
我々は,複数のKGQAベンチマーク上でKnowledgeNavigatorを評価し,そのフレームワークの有効性と一般化を実証した。
論文 参考訳(メタデータ) (2023-12-26T04:22:56Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Making Large Language Models Perform Better in Knowledge Graph
Completion [44.3724927274508]
大言語モデル(LLM)に基づく知識グラフ補完(KGC)は、KGの欠落した三重項を予測することを目的としている。
我々は,KGにおけるエンティティと関係の構造情報を取得するための知識プレフィックスアダプタ(KoPA)を提案する。
論文 参考訳(メタデータ) (2023-10-10T14:47:09Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs
for Fact-aware Language Modeling [34.59678835272862]
代表的大規模言語モデル(LLM)であるChatGPTは、その強力な創発的能力のために注目されている。
本稿では,知識グラフ強化大言語モデル(KGLLM)によるLLMの強化を提案する。
KGLLMはLLMの事実推論能力を高めるソリューションを提供し、LLM研究のための新たな道を開く。
論文 参考訳(メタデータ) (2023-06-20T12:21:06Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。