論文の概要: EntQA: Entity Linking as Question Answering
- arxiv url: http://arxiv.org/abs/2110.02369v1
- Date: Tue, 5 Oct 2021 21:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:43:09.640598
- Title: EntQA: Entity Linking as Question Answering
- Title(参考訳): EntQA: 質問応答としてのエンティティリンク
- Authors: Wenzheng Zhang, Wenyue Hua, Karl Stratos
- Abstract要約: 本稿では、質問回答としてエンティティリンクを表すEntQAを紹介する。
このアプローチは、エンティティリンクの進歩と、オープンドメインの質問応答の進歩を組み合わせたものです。
以前の作品とは異なり、我々は言及候補辞書や大規模な弱監督に依存していない。
- 参考スコア(独自算出の注目度): 18.39360849304263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A conventional approach to entity linking is to first find mentions in a
given document and then infer their underlying entities in the knowledge base.
A well-known limitation of this approach is that it requires finding mentions
without knowing their entities, which is unnatural and difficult. We present a
new model that does not suffer from this limitation called EntQA, which stands
for Entity linking as Question Answering. EntQA first proposes candidate
entities with a fast retrieval module, and then scrutinizes the document to
find mentions of each candidate with a powerful reader module. Our approach
combines progress in entity linking with that in open-domain question answering
and capitalizes on pretrained models for dense entity retrieval and reading
comprehension. Unlike in previous works, we do not rely on a mention-candidates
dictionary or large-scale weak supervision. EntQA achieves strong results on
the GERBIL benchmarking platform.
- Abstract(参考訳): エンティティリンクに対する従来のアプローチは、まず与えられたドキュメントに言及を見つけ、次にその基礎となるエンティティを知識ベースで推測する。
このアプローチのよく知られた制限は、その実体を知らずに言及を見つける必要があることである。
本稿では,この制限に悩まされない新しいモデルであるEntQAについて述べる。
EntQAは、まず高速な検索モジュールを持つ候補エンティティを提案し、それから文書を精査して、強力なリーダーモジュールで各候補の言及を見つける。
提案手法は,エンティティリンクの進展とオープンドメイン質問応答の進展を組み合わせ,エンティティ検索や読解理解のための事前学習モデルを活用する。
以前の作品とは異なり、我々は言及候補辞書や大規模な弱監督に依存していない。
EntQAはGERBILベンチマークプラットフォーム上で大きな成果を上げている。
関連論文リスト
- Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Open-domain Question Answering via Chain of Reasoning over Heterogeneous
Knowledge [82.5582220249183]
異種知識ソース間のシングル/マルチホップ質問に応答する新しいオープンドメイン質問応答(ODQA)フレームワークを提案する。
分離された証拠を収集するためにレトリバーにのみ依存する従来の方法とは異なり、我々の仲介者は検索された集合に対する推論の連鎖を実行する。
本システムは,2つのODQAデータセットであるOTT-QAとNQに対して,Wikipediaの表や節に対する競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-22T03:21:32Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - NeuralQA: A Usable Library for Question Answering (Contextual Query
Expansion + BERT) on Large Datasets [0.6091702876917281]
NeuralQAは、大規模なデータセットに対する質問回答(QA)のためのライブラリである。
既存のインフラストラクチャ(例えば、HuggingFace Transformers APIでトレーニングされたElasticSearchインスタンスやリーダモデル)と統合され、QAサブタスクに有用なデフォルトを提供する。
NeuralQAのコードとドキュメントはGithubでオープンソースとして公開されている。
論文 参考訳(メタデータ) (2020-07-30T03:38:30Z) - Message Passing Query Embedding [4.035753155957698]
本稿では,クエリのグラフ表現を符号化するグラフニューラルネットワークを提案する。
モデルは、明示的な監督なしにエンティティタイプの概念を捉えたエンティティ埋め込みを学習することを示します。
論文 参考訳(メタデータ) (2020-02-06T17:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。