論文の概要: CogMG: Collaborative Augmentation Between Large Language Model and Knowledge Graph
- arxiv url: http://arxiv.org/abs/2406.17231v1
- Date: Tue, 25 Jun 2024 02:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 16:01:10.845765
- Title: CogMG: Collaborative Augmentation Between Large Language Model and Knowledge Graph
- Title(参考訳): CogMG: 大規模言語モデルと知識グラフのコラボレーション強化
- Authors: Tong Zhou, Yubo Chen, Kang Liu, Jun Zhao,
- Abstract要約: 大規模な言語モデルは、幻覚や事実的不正確なコンテンツを生成するという妥当性にもかかわらず、疑問に答えるアプリケーションにとって不可欠なものとなっている。
我々は,QAシナリオにおけるLLMの限界に対処するため,知識グラフを活用するコラボレーティブ拡張フレームワークであるCogMGを紹介した。
本手法の有効性をエージェント・フレームワーク内における教師付き微調整LDMを用いて実証する。
- 参考スコア(独自算出の注目度): 22.775129755508704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have become integral to question-answering applications despite their propensity for generating hallucinations and factually inaccurate content. Querying knowledge graphs to reduce hallucinations in LLM meets the challenge of incomplete knowledge coverage in knowledge graphs. On the other hand, updating knowledge graphs by information extraction and knowledge graph completion faces the knowledge update misalignment issue. In this work, we introduce a collaborative augmentation framework, CogMG, leveraging knowledge graphs to address the limitations of LLMs in QA scenarios, explicitly targeting the problems of incomplete knowledge coverage and knowledge update misalignment. The LLMs identify and decompose required knowledge triples that are not present in the KG, enriching them and aligning updates with real-world demands. We demonstrate the efficacy of this approach through a supervised fine-tuned LLM within an agent framework, showing significant improvements in reducing hallucinations and enhancing factual accuracy in QA responses. Our code and video are publicly available.
- Abstract(参考訳): 大規模な言語モデルは、幻覚や事実的不正確なコンテンツを生成するという妥当性にもかかわらず、疑問に答えるアプリケーションにとって不可欠なものとなっている。
LLMにおける幻覚を減らすために知識グラフを問うことは、知識グラフの不完全知識カバレッジの課題を満たす。
一方、情報抽出と知識グラフ補完による知識グラフの更新は、知識更新ミスアライメント問題に直面している。
本研究では,QAシナリオにおけるLLMの限界に対処するために知識グラフを活用するコラボレーティブ拡張フレームワークであるCogMGを紹介する。
LLMは、KGに存在しない3つの知識を特定し、分解し、それらを豊かにし、更新を現実世界の要求に合わせる。
エージェント・フレームワーク内の微調整LDMを用いて,本手法の有効性を実証し,幻覚の低減とQA応答の事実的精度の向上に寄与した。
私たちのコードとビデオは公開されています。
関連論文リスト
- KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Prompting Large Language Models with Knowledge Graphs for Question Answering Involving Long-tail Facts [50.06633829833144]
大規模言語モデル(LLM)は、様々なNLPタスクを実行するのに効果的であるが、広範囲の現実世界の知識を必要とするタスクを扱うのに苦労する。
我々は,関連する疑問に答えるために,長期的事実の知識を必要とするベンチマークを提案する。
実験の結果,LLMだけでこれらの疑問に答えるのに苦労していることが明らかとなった。
論文 参考訳(メタデータ) (2024-05-10T15:10:20Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [90.30473970040362]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成できる、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
具体的には、LLMをKGを探索するエージェントとして扱うだけでなく、KGとして扱い、探索したサブグラフに基づいて新たな事実を生成する選択生成探索フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Neighboring Perturbations of Knowledge Editing on Large Language Models [43.91228153498271]
本稿では,大規模言語モデル (LLM) に対する新たな知識の更新が,その内部にカプセル化された近隣の知識を乱すかどうかを考察する。
適応知識の摂動評価(PEAK)と呼ばれるベンチマークは、新しい知識を追加する際に隣り合う知識に摂動の程度を評価するために構築される。
論文 参考訳(メタデータ) (2024-01-31T06:49:36Z) - Knowledge Verification to Nip Hallucination in the Bud [69.79051730580014]
本研究では、アライメントデータに存在する外部知識と基礎LPM内に埋め込まれた固有の知識との矛盾を検証し、最小化することにより、幻覚を緩和する可能性を示す。
本稿では,知識一貫性アライメント(KCA, Knowledge Consistent Alignment)と呼ばれる新しい手法を提案する。
6つのベンチマークで幻覚を減らし, バックボーンとスケールの異なる基礎的LCMを利用することで, KCAの優れた効果を実証した。
論文 参考訳(メタデータ) (2024-01-19T15:39:49Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - On Exploring the Reasoning Capability of Large Language Models with
Knowledge Graphs [11.878708460150726]
学習前の知識グラフからの情報をリコールする際のLLMの精度について2つの研究質問を定式化する。
これらの問題に対処するため,LLMを用いて4つの知識グラフ推論タスクを実行する。
実験の結果, LLMは, 単純かつ複雑な知識グラフ推論タスクを自身のメモリから処理できることがわかった。
論文 参考訳(メタデータ) (2023-12-01T05:08:47Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Investigating the Factual Knowledge Boundary of Large Language Models
with Retrieval Augmentation [91.30946119104111]
大規模言語モデル(LLM)は,質問に応答する能力に対して,波及しない自信を持っていることを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
また, LLM は, 回答の定式化に際し, 提案した検索結果に依存する傾向が認められた。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。