論文の概要: CogMG: Collaborative Augmentation Between Large Language Model and Knowledge Graph
- arxiv url: http://arxiv.org/abs/2406.17231v1
- Date: Tue, 25 Jun 2024 02:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 16:01:10.845765
- Title: CogMG: Collaborative Augmentation Between Large Language Model and Knowledge Graph
- Title(参考訳): CogMG: 大規模言語モデルと知識グラフのコラボレーション強化
- Authors: Tong Zhou, Yubo Chen, Kang Liu, Jun Zhao,
- Abstract要約: 大規模な言語モデルは、幻覚や事実的不正確なコンテンツを生成するという妥当性にもかかわらず、疑問に答えるアプリケーションにとって不可欠なものとなっている。
我々は,QAシナリオにおけるLLMの限界に対処するため,知識グラフを活用するコラボレーティブ拡張フレームワークであるCogMGを紹介した。
本手法の有効性をエージェント・フレームワーク内における教師付き微調整LDMを用いて実証する。
- 参考スコア(独自算出の注目度): 22.775129755508704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models have become integral to question-answering applications despite their propensity for generating hallucinations and factually inaccurate content. Querying knowledge graphs to reduce hallucinations in LLM meets the challenge of incomplete knowledge coverage in knowledge graphs. On the other hand, updating knowledge graphs by information extraction and knowledge graph completion faces the knowledge update misalignment issue. In this work, we introduce a collaborative augmentation framework, CogMG, leveraging knowledge graphs to address the limitations of LLMs in QA scenarios, explicitly targeting the problems of incomplete knowledge coverage and knowledge update misalignment. The LLMs identify and decompose required knowledge triples that are not present in the KG, enriching them and aligning updates with real-world demands. We demonstrate the efficacy of this approach through a supervised fine-tuned LLM within an agent framework, showing significant improvements in reducing hallucinations and enhancing factual accuracy in QA responses. Our code and video are publicly available.
- Abstract(参考訳): 大規模な言語モデルは、幻覚や事実的不正確なコンテンツを生成するという妥当性にもかかわらず、疑問に答えるアプリケーションにとって不可欠なものとなっている。
LLMにおける幻覚を減らすために知識グラフを問うことは、知識グラフの不完全知識カバレッジの課題を満たす。
一方、情報抽出と知識グラフ補完による知識グラフの更新は、知識更新ミスアライメント問題に直面している。
本研究では,QAシナリオにおけるLLMの限界に対処するために知識グラフを活用するコラボレーティブ拡張フレームワークであるCogMGを紹介する。
LLMは、KGに存在しない3つの知識を特定し、分解し、それらを豊かにし、更新を現実世界の要求に合わせる。
エージェント・フレームワーク内の微調整LDMを用いて,本手法の有効性を実証し,幻覚の低減とQA応答の事実的精度の向上に寄与した。
私たちのコードとビデオは公開されています。
関連論文リスト
- Knowledge Graphs, Large Language Models, and Hallucinations: An NLP Perspective [5.769786334333616]
大規模言語モデル(LLM)は、自動テキスト生成や質問応答などを含む自然言語処理(NLP)ベースのアプリケーションに革命をもたらした。
幻覚では、モデルがもっともらしい音を出すが、実際には正しくない反応を生成する。
本稿では,現状のデータセットやベンチマーク,知識統合や幻覚評価の手法など,これらのオープンな課題について論じる。
論文 参考訳(メタデータ) (2024-11-21T16:09:05Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Prompting Large Language Models with Knowledge Graphs for Question Answering Involving Long-tail Facts [50.06633829833144]
大規模言語モデル(LLM)は、様々なNLPタスクを実行するのに効果的であるが、広範囲の現実世界の知識を必要とするタスクを扱うのに苦労する。
我々は,関連する疑問に答えるために,長期的事実の知識を必要とするベンチマークを提案する。
実験の結果,LLMだけでこれらの疑問に答えるのに苦労していることが明らかとなった。
論文 参考訳(メタデータ) (2024-05-10T15:10:20Z) - Neighboring Perturbations of Knowledge Editing on Large Language Models [43.91228153498271]
本稿では,大規模言語モデル (LLM) に対する新たな知識の更新が,その内部にカプセル化された近隣の知識を乱すかどうかを考察する。
適応知識の摂動評価(PEAK)と呼ばれるベンチマークは、新しい知識を追加する際に隣り合う知識に摂動の程度を評価するために構築される。
論文 参考訳(メタデータ) (2024-01-31T06:49:36Z) - Knowledge Verification to Nip Hallucination in the Bud [69.79051730580014]
本研究では、アライメントデータに存在する外部知識と基礎LPM内に埋め込まれた固有の知識との矛盾を検証し、最小化することにより、幻覚を緩和する可能性を示す。
本稿では,知識一貫性アライメント(KCA, Knowledge Consistent Alignment)と呼ばれる新しい手法を提案する。
6つのベンチマークで幻覚を減らし, バックボーンとスケールの異なる基礎的LCMを利用することで, KCAの優れた効果を実証した。
論文 参考訳(メタデータ) (2024-01-19T15:39:49Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - On Exploring the Reasoning Capability of Large Language Models with
Knowledge Graphs [11.878708460150726]
学習前の知識グラフからの情報をリコールする際のLLMの精度について2つの研究質問を定式化する。
これらの問題に対処するため,LLMを用いて4つの知識グラフ推論タスクを実行する。
実験の結果, LLMは, 単純かつ複雑な知識グラフ推論タスクを自身のメモリから処理できることがわかった。
論文 参考訳(メタデータ) (2023-12-01T05:08:47Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。