論文の概要: Improving Distantly Supervised Relation Extraction by Natural Language
Inference
- arxiv url: http://arxiv.org/abs/2208.00346v1
- Date: Sun, 31 Jul 2022 02:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:00:10.250594
- Title: Improving Distantly Supervised Relation Extraction by Natural Language
Inference
- Title(参考訳): 自然言語推論による遠隔教師付き関係抽出の改善
- Authors: Kang Zhou, Qiao Qiao, Yuepei Li, Qi Li
- Abstract要約: 本稿では,既存の知識ベースから遠ざかる監視と,事前学習した言語モデルから他のタスクへ間接的に監督するDSRE-NLIフレームワークを提案する。
DSRE-NLIは、半自動的関係言語化(SARV)機構により、市販の自然言語推論(NLI)エンジンをエネルギ化し、間接的な監視を提供する。
2つのシンプルで効果的なデータ統合戦略により、トレーニングデータの質が大幅に向上する。
- 参考スコア(独自算出の注目度): 9.181270251524866
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To reduce human annotations for relation extraction (RE) tasks, distantly
supervised approaches have been proposed, while struggling with low
performance. In this work, we propose a novel DSRE-NLI framework, which
considers both distant supervision from existing knowledge bases and indirect
supervision from pretrained language models for other tasks. DSRE-NLI energizes
an off-the-shelf natural language inference (NLI) engine with a semi-automatic
relation verbalization (SARV) mechanism to provide indirect supervision and
further consolidates the distant annotations to benefit multi-classification RE
models. The NLI-based indirect supervision acquires only one relation
verbalization template from humans as a semantically general template for each
relationship, and then the template set is enriched by high-quality textual
patterns automatically mined from the distantly annotated corpus. With two
simple and effective data consolidation strategies, the quality of training
data is substantially improved. Extensive experiments demonstrate that the
proposed framework significantly improves the SOTA performance (up to 7.73\% of
F1) on distantly supervised RE benchmark datasets.
- Abstract(参考訳): 関係抽出(RE)タスクに対する人間のアノテーションを減らすため,低性能に苦慮しながら遠隔操作によるアプローチが提案されている。
本研究では,既存の知識ベースから遠ざかる監視と,事前学習した言語モデルから他のタスクへ間接的に監督するDSRE-NLIフレームワークを提案する。
dsre-nliは、半自動関係動詞化(sarv)機構を備えた市販自然言語推論(nli)エンジンに間接的な監督を与え、遠隔アノテーションをさらに統合することで、多分類再モデルに利益をもたらす。
nliベースの間接監督は、各関係に対する意味論的汎用テンプレートとして人間から1つの関係動詞化テンプレートのみを取得し、その後、遠方の注釈付きコーパスから自動的に抽出される高品質なテキストパターンによってテンプレートセットが強化される。
2つのシンプルで効果的なデータ統合戦略により、トレーニングデータの質が大幅に向上する。
大規模な実験により、提案フレームワークは、遠隔監視されたREベンチマークデータセット上でのSOTA性能(最大7.73 %)を著しく改善することが示された。
関連論文リスト
- Grasping the Essentials: Tailoring Large Language Models for Zero-Shot Relation Extraction [33.528688487954454]
関係抽出(RE)は、テキスト内のエンティティ間の意味的関係を識別することを目的としている。
アノテーションの要求を減らすことを目的とした、ほとんどショットの学習は、通常、ターゲット関係に対する不完全で偏見のある監視を提供する。
1)大言語モデル(LLM)を利用して,関係定義とラベルなしコーパスから初期シードインスタンスを生成する。
論文 参考訳(メタデータ) (2024-02-17T00:20:06Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised
Relation Extraction [60.80849503639896]
非教師なし関係抽出は、関係範囲や分布に関する事前情報のない自然言語文からエンティティ間の関係を抽出することを目的としている。
本稿では,階層間注目を用いた階層的特徴空間から階層的信号を導出する機能を持つ,HiUREという新しいコントラスト学習フレームワークを提案する。
2つの公開データセットの実験結果は、最先端モデルと比較した場合の教師なし関係抽出におけるHiUREの有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-05-04T17:56:48Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Incorporating Linguistic Knowledge for Abstractive Multi-document
Summarization [20.572283625521784]
ニューラルネットワークに基づく抽象的多文書要約(MDS)モデルを開発した。
依存関係情報を言語誘導型注意機構に処理する。
言語信号の助けを借りて、文レベルの関係を正しく捉えることができる。
論文 参考訳(メタデータ) (2021-09-23T08:13:35Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - SelfORE: Self-supervised Relational Feature Learning for Open Relation
Extraction [60.08464995629325]
オープンドメイン関係抽出は、自然言語文からオープンドメイン関係事実を抽出するタスクである。
弱い自己教師型信号を利用する自己教師型フレームワークであるSelfOREを提案する。
3つのデータセットの実験結果は、SelfOREの有効性とロバスト性を示している。
論文 参考訳(メタデータ) (2020-04-06T07:23:17Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。