論文の概要: Chain of Knowledge: A Framework for Grounding Large Language Models with
Structured Knowledge Bases
- arxiv url: http://arxiv.org/abs/2305.13269v1
- Date: Mon, 22 May 2023 17:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 14:00:38.940449
- Title: Chain of Knowledge: A Framework for Grounding Large Language Models with
Structured Knowledge Bases
- Title(参考訳): 知識の連鎖:構造化知識ベースによる大規模言語モデル構築のためのフレームワーク
- Authors: Xingxuan Li, Ruochen Zhao, Yew Ken Chia, Bosheng Ding, Lidong Bing,
Shafiq Joty, Soujanya Poria
- Abstract要約: チェーン・オブ・ナレッジ(Chain of Knowledge, CoK)は、知識基盤を構造化した大規模言語モデルを強化し、事実の正しさを改善し、幻覚を減らすフレームワークである。
我々のフレームワークは,知識集約型タスクにおける大規模言語モデルの事実的正しさを著しく向上させる。
- 参考スコア(独自算出の注目度): 36.0228519143505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Chain of Knowledge (CoK), a framework that augments large
language models with structured knowledge bases to improve factual correctness
and reduce hallucination. Compared to previous works which only retrieve
unstructured texts, CoK leverages structured knowledge bases which support
complex queries and offer more direct factual statements. To assist large
language models to effectively query knowledge bases, we propose a query
generator model with contrastive instruction-tuning. As the query generator is
separate from the frozen large language model, our framework is modular and
thus easily adapted to various knowledge sources and models. Experiments show
that our framework significantly enhances the factual correctness of large
language models on knowledge-intensive tasks.
- Abstract(参考訳): 知識の連鎖 (Chain of Knowledge, CoK) は, 知識ベースを構造化した大規模言語モデルを拡張し, 事実の正しさの向上と幻覚の低減を図るフレームワークである。
非構造化テキストのみを取得する以前の作品と比較して、cokは複雑なクエリをサポートし、より直接的な事実ステートメントを提供する構造化知識ベースを利用している。
そこで本研究では,大規模言語モデルを用いて知識ベースを効率的にクエリする手法を提案する。
クエリジェネレータは凍結した大きな言語モデルとは分離されているため、我々のフレームワークはモジュール化されており、様々な知識ソースやモデルに容易に適応できる。
実験の結果,我々のフレームワークは知識集約型タスクにおける大規模言語モデルの事実的正しさを著しく向上させることがわかった。
関連論文リスト
- SPARKLE: Enhancing SPARQL Generation with Direct KG Integration in Decoding [0.46040036610482665]
本稿では、SPARQLフレームワークであるSPARKLEに、新しいエンドツーエンド自然言語を提示する。
SPARKLEは、デコーディング中に知識ベースの構造を直接活用し、クエリ生成に知識を効果的に統合する。
本稿では,SPARKLEがSimpleQuestions-Wiki上で,LCQuAD 1.0上で最高のF1スコアを獲得していることを示す。
論文 参考訳(メタデータ) (2024-06-29T06:43:11Z) - Leveraging Logical Rules in Knowledge Editing: A Cherry on the Top [12.982138813457812]
知識編集(KE)におけるマルチホップ質問回答(MQA)は,大規模言語モデル(LLM)において重要な課題である
本稿では, RULE-KE をベースとした知識編集フレームワーク RULE-KE を提案する。
既存のデータセットと新しいデータセットを用いた実験的評価では、RULE-KEはパラメータベースのソリューションとメモリベースのソリューションの両方のパフォーマンスを、それぞれ92%と112.9%に向上させる。
論文 参考訳(メタデータ) (2024-05-24T11:30:00Z) - Enhancing Formal Theorem Proving: A Comprehensive Dataset for Training AI Models on Coq Code [0.0]
Coqの証明アシスタントは、数学的アサーションとソフトウェアの正確性を検証するための厳格なアプローチで際立っている。
人工知能と機械学習の進歩にもかかわらず、Coq構文と意味論の特殊性は大規模言語モデル(LLM)に固有の課題をもたらす。
このデータセットは、10,000以上のCoqソースファイルのコレクションから派生したもので、幅広い命題、証明、定義を含んでいる。
論文 参考訳(メタデータ) (2024-03-19T10:53:40Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Merging Generated and Retrieved Knowledge for Open-Domain QA [72.42262579925911]
COMBOは、より良いオープンドメインQAフレームワークのための互換性指向の知識の融合である。
COMBOは4つのテスト済みオープンドメインQAベンチマークのうち3つで競合ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2023-10-22T19:37:06Z) - Reasoning over Hierarchical Question Decomposition Tree for Explainable
Question Answering [83.74210749046551]
ヘテロジニアス知識統合のための質問分解手法を提案する。
階層的質問分解木(RoHT)を用いた新しい2段階XQAフレームワークを提案する。
複雑なQAデータセットKQA ProとMusiqueの実験は、我々のフレームワークがSOTAメソッドを著しく上回っていることを示している。
論文 参考訳(メタデータ) (2023-05-24T11:45:59Z) - DecAF: Joint Decoding of Answers and Logical Forms for Question
Answering over Knowledge Bases [81.19499764899359]
本稿では,論理形式と直解の両方を共同で生成する新しいフレームワークDecAFを提案する。
DecAFはWebQSP、FreebaseQA、GrailQAベンチマークで新しい最先端の精度を実現している。
論文 参考訳(メタデータ) (2022-09-30T19:51:52Z) - Unified Open-Domain Question Answering with Structured and Unstructured
Knowledge [7.7429684536437104]
我々は,構造化,非構造化,半構造化の知識ソースを用いて,オープンドメイン質問応答(odqa)を研究する。
我々のアプローチは、テキストに縮小することですべてのソースを均質化し、最近の強力なレトリバーリーダーモデルを適用する。
その結果,3つのODQAベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T05:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。