論文の概要: Weakly-Supervised Questions for Zero-Shot Relation Extraction
- arxiv url: http://arxiv.org/abs/2301.09640v1
- Date: Sat, 21 Jan 2023 22:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 15:05:04.851165
- Title: Weakly-Supervised Questions for Zero-Shot Relation Extraction
- Title(参考訳): ゼロショット関係抽出のための弱教師付き質問
- Authors: Saeed Najafi and Alona Fyshe
- Abstract要約: ゼロショット関係抽出(ゼロショット関係抽出、ZRE)は、トレーニングとテストセットが共有関係型を持たない関係抽出のタスクである。
質問回答(QA)としてのZREリフレーム関係抽出への前向きアプローチ
ここでは、これらの金のテンプレートを廃止して、見当たらない関係に関する質問を生成できるモデルを学ぶ。
- 参考スコア(独自算出の注目度): 3.030622181266347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-Shot Relation Extraction (ZRE) is the task of Relation Extraction where
the training and test sets have no shared relation types. This very challenging
domain is a good test of a model's ability to generalize. Previous approaches
to ZRE reframed relation extraction as Question Answering (QA), allowing for
the use of pre-trained QA models. However, this method required manually
creating gold question templates for each new relation. Here, we do away with
these gold templates and instead learn a model that can generate questions for
unseen relations. Our technique can successfully translate relation
descriptions into relevant questions, which are then leveraged to generate the
correct tail entity. On tail entity extraction, we outperform the previous
state-of-the-art by more than 16 F1 points without using gold question
templates. On the RE-QA dataset where no previous baseline for relation
extraction exists, our proposed algorithm comes within 0.7 F1 points of a
system that uses gold question templates. Our model also outperforms the
state-of-the-art ZRE baselines on the FewRel and WikiZSL datasets, showing that
QA models no longer need template questions to match the performance of models
specifically tailored to the ZRE task. Our implementation is available at
https://github.com/fyshelab/QA-ZRE.
- Abstract(参考訳): ゼロショット関係抽出 (zero-shot relation extraction, zre) は、トレーニングとテストセットが共有関係タイプを持たない関係抽出のタスクである。
この非常に難しいドメインは、モデルを一般化する能力のよいテストである。
ZREの以前のアプローチは、QA(QA)として関係抽出を再構成し、事前訓練されたQAモデルの使用を可能にした。
しかし、この方法は新しい関係ごとに金の質問テンプレートを手作業で作成する必要があった。
ここでは、これらの金のテンプレートを廃止して、見当たらない関係に関する質問を生成できるモデルを学ぶ。
本手法は,関係記述を関連する質問に翻訳し,適切なテールエンティティを生成する。
テールエンティティ抽出では,ゴールド質問テンプレートを使わずに16F1点以上の先行技術よりも優れていた。
従来の関係抽出のベースラインが存在しないRE-QAデータセットでは,ゴールド質問テンプレートを用いたシステムにおいて,提案アルゴリズムは0.7F1ポイント以内となる。
我々のモデルは、FewRelおよびWikiZSLデータセットの最先端のZREベースラインよりも優れており、QAモデルがZREタスクに特化されたモデルのパフォーマンスに合わせてテンプレート質問をする必要がなくなったことを示している。
私たちの実装はhttps://github.com/fyshelab/qa-zreで利用可能です。
関連論文リスト
- GSQA: An End-to-End Model for Generative Spoken Question Answering [54.418723701886115]
本稿では,システムに抽象的推論を強制するGSQA(Generative Spoken Question Answering)モデルを提案する。
本モデルでは, 抽出QAデータセットにおいて, 従来の抽出モデルよりも3%上回っている。
我々のGSQAモデルは、幅広い質問に一般化する可能性を示し、それによって、抽象的QAの音声質問応答能力をさらに拡張する。
論文 参考訳(メタデータ) (2023-12-15T13:33:18Z) - Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Mitigating False-Negative Contexts in Multi-document QuestionAnswering
with Retrieval Marginalization [29.797379277423143]
応答不能なクエリを適切に処理するset-valued検索の新しいパラメータ化を開発している。
トレーニング中にこの集合を限界化することで、モデルが注釈付き支持証拠の偽陰性を緩和できることを示す。
IIRCでは,代替文脈の余分化による連成モデリングによりモデル性能が5.5F1ポイント向上し,50.6F1の新たな最先端性能が得られることを示す。
論文 参考訳(メタデータ) (2021-03-22T23:44:35Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。