論文の概要: End-to-End Entity Resolution and Question Answering Using Differentiable
Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2109.05817v1
- Date: Mon, 13 Sep 2021 09:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:44:18.386802
- Title: End-to-End Entity Resolution and Question Answering Using Differentiable
Knowledge Graphs
- Title(参考訳): 識別可能な知識グラフを用いたエンドツーエンドのエンティティ解決と質問応答
- Authors: Armin Oliya, Amir Saffari, Priyanka Sen, Tom Ayoola
- Abstract要約: 知識グラフに対する質問応答のためのE2E学習の境界を、エンティティ解決コンポーネントのトレーニングを含むように拡張する。
私たちのモデルは、トレーニングする質問テキストと回答エンティティのみを必要とし、実行中にERコンポーネントを供給する必要のないスタンドアロンのQAモデルを提供します。
E2Eトレーニングモデルを2つの公開データセット上で評価し、手書きのエンティティを使用するベースラインモデルに近いことを示す。
- 参考スコア(独自算出の注目度): 1.1196974000738729
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, end-to-end (E2E) trained models for question answering over
knowledge graphs (KGQA) have delivered promising results using only a weakly
supervised dataset. However, these models are trained and evaluated in a
setting where hand-annotated question entities are supplied to the model,
leaving the important and non-trivial task of entity resolution (ER) outside
the scope of E2E learning. In this work, we extend the boundaries of E2E
learning for KGQA to include the training of an ER component. Our model only
needs the question text and the answer entities to train, and delivers a
stand-alone QA model that does not require an additional ER component to be
supplied during runtime. Our approach is fully differentiable, thanks to its
reliance on a recent method for building differentiable KGs (Cohen et al.,
2020). We evaluate our E2E trained model on two public datasets and show that
it comes close to baseline models that use hand-annotated entities.
- Abstract(参考訳): 近年、知識グラフ(KGQA)に対する質問応答のためのエンドツーエンド(E2E)トレーニングモデルが、弱い教師付きデータセットのみを使用して有望な結果を提供している。
しかし、これらのモデルは、e2e学習の範囲外にエンティティ解決(er)の重要かつ非自明なタスクを残して、手書きの質問エンティティがモデルに供給される環境で訓練され、評価される。
本研究では,KGQAにおけるE2E学習の境界をERコンポーネントのトレーニングを含むように拡張する。
私たちのモデルは、トレーニングする質問テキストと回答エンティティのみを必要とし、実行中に追加のERコンポーネントを供給する必要のないスタンドアロンのQAモデルを提供します。
我々のアプローチは、最近の微分可能なkgs(cohen et al., 2020)構築方法に依存するため、完全に微分可能である。
E2Eトレーニングモデルを2つの公開データセット上で評価し、手書きのエンティティを使用するベースラインモデルに近いことを示す。
関連論文リスト
- Estimating Knowledge in Large Language Models Without Generating a Single Token [12.913172023910203]
大規模言語モデル(LLM)における知識を評価するための現在の手法は、モデルをクエリし、生成した応答を評価する。
本研究では,モデルがテキストを生成する前に評価を行うことができるかどうかを問う。
様々なLLMを用いた実験では、内部の主題表現を訓練した単純なプローブであるKEENが、両方のタスクで成功することが示された。
論文 参考訳(メタデータ) (2024-06-18T14:45:50Z) - Enhancing Question Answering on Charts Through Effective Pre-training Tasks [26.571522748519584]
グラフやプロットに適用した場合の現在のVisualQAモデルの制限に対処する。
以上の結果から,既存のモデルでは,図の構造的・視覚的文脈に関する疑問に答える上で,特に性能が低いことが示唆された。
本稿では,構造的・視覚的知識と数値的疑問の理解の両面から,既存のモデルを強制する3つの簡単な事前学習タスクを提案する。
論文 参考訳(メタデータ) (2024-06-14T14:40:10Z) - Evaluating Correctness and Faithfulness of Instruction-Following Models for Question Answering [26.34649731975005]
Retriever-augmented instruction-following modelは、質問応答のための微調整アプローチ(QA)の魅力的な代替品である
モデル応答は自然で流動的である傾向にあるが、追加の冗長性により、モデルパフォーマンスを正確に定量化するために従来のQA評価指標は信頼できない。
1) ユーザの情報要求(正確性)をどの程度満足させるか,2) 提供された知識(忠実性)に基づいて応答を生成するか,という2つの次元に沿って,これらのモデルを評価するために,自動評価と人的評価の両方を用いる。
論文 参考訳(メタデータ) (2023-07-31T17:41:00Z) - Chain-of-Skills: A Configurable Model for Open-domain Question Answering [79.8644260578301]
検索モデルは、現実世界の知識集約的なタスクに欠かせない要素である。
最近の研究はカスタマイズされたメソッドに焦点を合わせ、モデルの転送可能性とスケーラビリティを制限している。
本稿では,各モジュールがデータセット間で再利用可能なキースキルに対応するモジュールレトリバーを提案する。
論文 参考訳(メタデータ) (2023-05-04T20:19:39Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - Question-Answer Sentence Graph for Joint Modeling Answer Selection [122.29142965960138]
我々は,質問文,質問文,回答文のペア間のスコアを計算するための最先端(SOTA)モデルを訓練し,統合する。
オンライン推論は、目に見えないクエリのAS2タスクを解決するために実行される。
論文 参考訳(メタデータ) (2022-02-16T05:59:53Z) - Joint Models for Answer Verification in Question Answering Systems [85.93456768689404]
我々は3方向のマルチクラス化器を構築し、解答が他の解答をサポートするか、反証するか、あるいは中立かを決定する。
私たちは、WikiQA、TREC-QA、実世界のデータセットでモデルをテストしました。
論文 参考訳(メタデータ) (2021-07-09T05:34:36Z) - CorDEL: A Contrastive Deep Learning Approach for Entity Linkage [70.82533554253335]
エンティティリンケージ(EL)は、データのクリーニングと統合において重要な問題である。
新たなデータの増加に伴い、ディープラーニング(DL)ベースのアプローチが提案され、従来のモデルに付随するELの高コスト化が図られている。
我々は、ツインネットワークアーキテクチャはELに準最適であり、既存のモデルに固有の欠点をもたらすと主張している。
論文 参考訳(メタデータ) (2020-09-15T16:33:05Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。