論文の概要: Using Multiple RDF Knowledge Graphs for Enriching ChatGPT Responses
- arxiv url: http://arxiv.org/abs/2304.05774v1
- Date: Wed, 12 Apr 2023 11:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:22:06.218614
- Title: Using Multiple RDF Knowledge Graphs for Enriching ChatGPT Responses
- Title(参考訳): 複数RDF知識グラフを用いたChatGPT応答の強化
- Authors: Michalis Mountantonakis and Yannis Tzitzikas
- Abstract要約: GPToLODSは、数百のRDF KGからの情報でChatGPT応答を拡張できる。
応答の各実体をLODシンデシスKGの統計とハイパーリンクで識別し、注釈する。
- 参考スコア(独自算出の注目度): 0.22843885788439797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a recent trend for using the novel Artificial Intelligence ChatGPT
chatbox, which provides detailed responses and articulate answers across many
domains of knowledge. However, in many cases it returns plausible-sounding but
incorrect or inaccurate responses, whereas it does not provide evidence.
Therefore, any user has to further search for checking the accuracy of the
answer or/and for finding more information about the entities of the response.
At the same time there is a high proliferation of RDF Knowledge Graphs (KGs)
over any real domain, that offer high quality structured data. For enabling the
combination of ChatGPT and RDF KGs, we present a research prototype, called
GPToLODS, which is able to enrich any ChatGPT response with more information
from hundreds of RDF KGs. In particular, it identifies and annotates each
entity of the response with statistics and hyperlinks to LODsyndesis KG (which
contains integrated data from 400 RDF KGs and over 412 million entities). In
this way, it is feasible to enrich the content of entities and to perform fact
checking and validation for the facts of the response at real time.
- Abstract(参考訳): 人工知能のchatgptチャットボックスは、多くの知識分野にまたがって、詳細な回答と明瞭な回答を提供する。
しかし、多くの場合、妥当な響きを返すが、誤りまたは不正確な反応を返すが、証拠は得られない。
したがって、任意のユーザは、回答の正確性をチェックしたり、応答の実体に関するさらなる情報を見つけるために、さらに検索する必要がある。
同時に、高品質な構造化データを提供する実際のドメインに対してRDF知識グラフ(KG)が急増している。
本稿では,ChatGPT と RDF KGs の組み合わせを実現するために,GPToLODS と呼ばれる研究プロトタイプを提案する。
特に、LODシンデシスKG(400のRDF KGと4億1200万以上のエンティティの統合データを含む)への統計とハイパーリンクで応答の各エンティティを識別し、注釈する。
このようにして、エンティティの内容を充実させ、リアルタイムに応答の事実の事実チェックと検証を行うことが可能である。
関連論文リスト
- QuIM-RAG: Advancing Retrieval-Augmented Generation with Inverted Question Matching for Enhanced QA Performance [1.433758865948252]
本研究では,RAG(Retrieval-Augmented Generation)システム構築のための新しいアーキテクチャを提案する。
RAGアーキテクチャは、ターゲット文書から応答を生成するために構築される。
本稿では,本システムにおける検索機構の新しいアプローチQuIM-RAGを紹介する。
論文 参考訳(メタデータ) (2025-01-06T01:07:59Z) - RAGONITE: Iterative Retrieval on Induced Databases and Verbalized RDF for Conversational QA over KGs with RAG [6.4032082023113475]
SPARQLは複雑な意図と会話型の質問に対して脆弱である。
i)知識グラフから自動的に抽出されたデータベース上のSPARQL結果と、(ii)KG事実の動詞化に関するテキスト検索結果。
パイプラインは反復的な検索をサポートし、どのブランチの結果も満足できないと判断された場合、システムは自動的にラウンドを選択できる。
本稿では,BMW自動車の知識グラフに基づくいくつかのベースラインに対する提案方式の優位性を示す。
論文 参考訳(メタデータ) (2024-12-23T16:16:30Z) - ScopeQA: A Framework for Generating Out-of-Scope Questions for RAG [52.33835101586687]
会話AIエージェントはRetrieval Augmented Generation(RAG)を使用して、ユーザからの問い合わせに対して検証可能なドキュメント地上応答を提供する。
本稿では,多様な境界線外質問を効率よく生成する,ガイド付き幻覚に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - RAG-QA Arena: Evaluating Domain Robustness for Long-form Retrieval Augmented Question Answering [61.19126689470398]
Long-form RobustQA (LFRQA)は、7つの異なるドメインにわたる26Kクエリと大きなコーパスをカバーする新しいデータセットである。
RAG-QAアリーナと人間の回答品質判断は高い相関関係にあることを示す。
最も競争力のあるLLMの回答の41.3%のみがLFRQAの回答に好まれており、RAG-QAアリーナは将来の研究の挑戦的な評価プラットフォームであることを示している。
論文 参考訳(メタデータ) (2024-07-19T03:02:51Z) - CRAG -- Comprehensive RAG Benchmark [58.15980697921195]
Retrieval-Augmented Generation (RAG) は、Large Language Model (LLM) の知識不足を緩和するための有望なソリューションとして最近登場した。
既存のRAGデータセットは、現実世界の質問回答(QA)タスクの多様性と動的な性質を適切に表現していない。
このギャップを埋めるために、包括的RAGベンチマーク(CRAG)を導入する。
CRAGは、Webと知識グラフ(KG)検索をシミュレートする4,409組の質問応答ペアとモックAPIの実際の質問応答ベンチマークである。
論文 参考訳(メタデータ) (2024-06-07T08:43:07Z) - ChatGPT versus Traditional Question Answering for Knowledge Graphs:
Current Status and Future Directions Towards Knowledge Graph Chatbots [7.2676028986202]
知識グラフ(KG)のための会話型AIと質問応答システム(QAS)はどちらも新興研究分野である。
QASは、自然言語質問を理解して翻訳することで、KGから最新の情報を検索し、データベースエンジンがサポートする形式的なクエリに変換する。
本フレームワークでは,現在最先端のQASであるKGQANに対して,ChatGPTとGalacticaの2つの代表的な対話モデルを比較した。
論文 参考訳(メタデータ) (2023-02-08T13:03:27Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - UNIQORN: Unified Question Answering over RDF Knowledge Graphs and Natural Language Text [20.1784368017206]
知識グラフのようなRDFデータに対する質問応答は大幅に進歩している。
IRとNLPのコミュニティはテキストによるQAに対処してきたが、そのようなシステムは意味データや知識をほとんど利用していない。
本稿では,RDFデータセットとテキストコーパスを併用した複雑な質問をシームレスに操作する手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T10:50:52Z) - Zero-shot Fact Verification by Claim Generation [85.27523983027471]
我々は,堅牢な事実検証モデルをトレーニングするフレームワークであるQACGを開発した。
われわれは自動的に生成されたクレームを使って、Wikipediaのエビデンスからサポートしたり、反論したり、検証したりできる。
ゼロショットシナリオでは、QACGはRoBERTaモデルのF1を50%から77%に改善し、パフォーマンスは2K以上の手作業による例に相当する。
論文 参考訳(メタデータ) (2021-05-31T03:13:52Z) - Differentiable Reasoning over a Virtual Knowledge Base [156.94984221342716]
コーパスを仮想知識ベース(KB)として,複雑なマルチホップ質問に答えるタスクについて検討する。
特に、コーパス内のエンティティの参照間の関係の経路をソフトに追従し、KBのようにテキストデータをトラバースするDrKITについて述べる。
DrKITは非常に効率的で、既存のマルチホップシステムよりも毎秒10-100倍のクエリを処理する。
論文 参考訳(メタデータ) (2020-02-25T03:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。