論文の概要: Unified Open-Domain Question Answering with Structured and Unstructured
Knowledge
- arxiv url: http://arxiv.org/abs/2012.14610v1
- Date: Tue, 29 Dec 2020 05:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 05:44:38.447785
- Title: Unified Open-Domain Question Answering with Structured and Unstructured
Knowledge
- Title(参考訳): 構造化および非構造化知識を用いた統一オープンドメイン質問応答
- Authors: Barlas Oguz, Xilun Chen, Vladimir Karpukhin, Stan Peshterliev, Dmytro
Okhonko, Michael Schlichtkrull, Sonal Gupta, Yashar Mehdad, Scott Yih
- Abstract要約: 我々は,構造化,非構造化,半構造化の知識ソースを用いて,オープンドメイン質問応答(odqa)を研究する。
我々のアプローチは、テキストに縮小することですべてのソースを均質化し、最近の強力なレトリバーリーダーモデルを適用する。
その結果,3つのODQAベンチマークで最先端の結果が得られた。
- 参考スコア(独自算出の注目度): 7.7429684536437104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study open-domain question answering (ODQA) with structured, unstructured
and semi-structured knowledge sources, including text, tables, lists, and
knowledge bases. Our approach homogenizes all sources by reducing them to text,
and applies recent, powerful retriever-reader models which have so far been
limited to text sources only. We show that knowledge-base QA can be greatly
improved when reformulated in this way. Contrary to previous work, we find that
combining sources always helps, even for datasets which target a single source
by construction. As a result, our unified model produces state-of-the-art
results on 3 popular ODQA benchmarks.
- Abstract(参考訳): 我々は、テキスト、表、リスト、知識ベースを含む構造化、非構造化、半構造化の知識ソースを用いて、オープンドメイン質問応答(odqa)を研究する。
提案手法は,テキストのみに制限された最新の強力なレトリバーリーダモデルを適用し,テキストに還元することで,すべてのソースを均質化する。
このような改革によって知識ベースQAを大幅に改善できることを示す。
以前の研究とは対照的に、コンバインドソースは、構築によって単一のソースをターゲットにしたデータセットであっても、常に役に立ちます。
その結果,3つのODQAベンチマークで最先端の結果が得られた。
関連論文リスト
- Contri(e)ve: Context + Retrieve for Scholarly Question Answering [0.0]
本稿では,オープンソースのLarge Language Model (LLM): Scholarly-QALDデータセット用のLlama3.1を提案する。
まず、異なる構造化データソースと非構造化データソースから質問に関連するコンテキストを抽出する。
第2に,LLMの情報検索性能を向上させるために,プロンプトエンジニアリングを実装した。
論文 参考訳(メタデータ) (2024-09-13T17:38:47Z) - TrustUQA: A Trustful Framework for Unified Structured Data Question Answering [45.480862651323115]
信頼性の高いQAフレームワークであるUnifiedTQAを提案する。
我々は,3種類の構造化データを対象とした5つのベンチマークでUnifiedTQAを評価した。
既存の2つの構造化されたデータQAメソッドを上回り、データタイプ固有のベースラインと比較すると、そのうち2つが最先端である。
論文 参考訳(メタデータ) (2024-06-27T06:13:05Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Merging Generated and Retrieved Knowledge for Open-Domain QA [72.42262579925911]
COMBOは、より良いオープンドメインQAフレームワークのための互換性指向の知識の融合である。
COMBOは4つのテスト済みオープンドメインQAベンチマークのうち3つで競合ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2023-10-22T19:37:06Z) - Chain-of-Knowledge: Grounding Large Language Models via Dynamic
Knowledge Adapting over Heterogeneous Sources [87.26486246513063]
Chain-of-knowledge (CoK)は、大規模な言語モデルを拡張するフレームワークである。
CoKは推論準備、動的知識適応、解答統合の3段階からなる。
論文 参考訳(メタデータ) (2023-05-22T17:34:23Z) - Open-domain Question Answering via Chain of Reasoning over Heterogeneous
Knowledge [82.5582220249183]
異種知識ソース間のシングル/マルチホップ質問に応答する新しいオープンドメイン質問応答(ODQA)フレームワークを提案する。
分離された証拠を収集するためにレトリバーにのみ依存する従来の方法とは異なり、我々の仲介者は検索された集合に対する推論の連鎖を実行する。
本システムは,2つのODQAデータセットであるOTT-QAとNQに対して,Wikipediaの表や節に対する競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-22T03:21:32Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。