論文の概要: Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction
- arxiv url: http://arxiv.org/abs/2011.13574v1
- Date: Fri, 27 Nov 2020 06:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:39:31.469254
- Title: Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction
- Title(参考訳): 長尾関係抽出のためのラベルなしテキストからの学習関係プロトタイプ
- Authors: Yixin Cao, Jun Kuang, Ming Gao, Aoying Zhou, Yonggang Wen, Tat-Seng
Chua
- Abstract要約: 本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
- 参考スコア(独自算出の注目度): 84.64435075778988
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Relation Extraction (RE) is a vital step to complete Knowledge Graph (KG) by
extracting entity relations from texts.However, it usually suffers from the
long-tail issue. The training data mainly concentrates on a few types of
relations, leading to the lackof sufficient annotations for the remaining types
of relations. In this paper, we propose a general approach to learn relation
prototypesfrom unlabeled texts, to facilitate the long-tail relation extraction
by transferring knowledge from the relation types with sufficient trainingdata.
We learn relation prototypes as an implicit factor between entities, which
reflects the meanings of relations as well as theirproximities for transfer
learning. Specifically, we construct a co-occurrence graph from texts, and
capture both first-order andsecond-order entity proximities for embedding
learning. Based on this, we further optimize the distance from entity pairs
tocorresponding prototypes, which can be easily adapted to almost arbitrary RE
frameworks. Thus, the learning of infrequent or evenunseen relation types will
benefit from semantically proximate relations through pairs of entities and
large-scale textual information.We have conducted extensive experiments on two
publicly available datasets: New York Times and Google Distant
Supervision.Compared with eight state-of-the-art baselines, our proposed model
achieves significant improvements (4.1% F1 on average). Furtherresults on
long-tail relations demonstrate the effectiveness of the learned relation
prototypes. We further conduct an ablation study toinvestigate the impacts of
varying components, and apply it to four basic relation extraction models to
verify the generalization ability.Finally, we analyze several example cases to
give intuitive impressions as qualitative analysis. Our codes will be released
later.
- Abstract(参考訳): 関係抽出(re)は、テキストからエンティティ関係を抽出することによって、知識グラフ(kg)を完成させるための重要なステップである。
トレーニングデータは主にいくつかのタイプの関係に集中しており、残りのタイプの関係に対する十分なアノテーションが欠如している。
本稿では,関係型から知識を十分な学習データで伝達することで,テキストのラベルのない関係のプロトタイプを学習し,長い関係の抽出を容易にする方法を提案する。
我々は,関係の意味と伝達学習の近さを反映した実体間の暗黙的要因として関係プロトタイプを学習する。
具体的には、テキストから共起グラフを構築し、埋め込み学習のための一階と二階の両方のエンティティをキャプチャする。
これに基づいて、ほぼ任意のREフレームワークに容易に適用可能な、プロトタイプに対応するエンティティペアからの距離をさらに最適化する。
そこで我々は、New York TimesとGoogle Distant Supervisionという2つの公開データセットで大規模な実験を行い、8つの最先端ベースラインと比較し、提案モデルは大幅な改善(平均4.1% F1)を達成した。
長期関係に関するさらなる議論は、学習された関係プロトタイプの有効性を示す。
さらに,様々な成分の影響を解明するためのアブレーション研究を行い,これを4つの基本関係抽出モデルに適用して一般化能力を検証した。
コードは後でリリースします。
関連論文リスト
- Cross-Domain Few-Shot Relation Extraction via Representation Learning
and Domain Adaptation [1.1602089225841632]
短いショット関係抽出は、各関係にラベル付き文がほとんどない新しい関係を認識することを目的としている。
従来の距離法に基づく数ショット関係抽出アルゴリズムは、訓練された距離関数を用いて、クエリ文の埋め込みに埋め込まれた少数のラベル付き文によって生成されたプロトタイプを比較することにより、関係を識別する。
我々は,先行知識からより解釈可能で効率的なプロトタイプを学習し,様々な領域における新たな関係をより効果的に抽出するために,関係の本質的な意味論を学習することを提案する。
論文 参考訳(メタデータ) (2022-12-05T19:34:52Z) - A Simple yet Effective Relation Information Guided Approach for Few-Shot
Relation Extraction [22.60428265210431]
Few-Shot Relation extractは、文中の一対の実体の関係を、各関係にいくつかのラベル付き例で訓練することによって予測することを目的としている。
原型ネットワークに基づくモデル学習を支援するための関係情報を導入した最近の研究もある。
関係情報はモデルにより明確かつ効果的に導入できると論じる。
論文 参考訳(メタデータ) (2022-05-19T13:03:01Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Learning Informative Representations of Biomedical Relations with Latent
Variable Models [2.4366811507669115]
本稿では,任意に柔軟な分布を持つ潜在変数モデルを提案する。
我々のモデルは、パラメータが少なく、トレーニングがかなり速く、両方のタスクの強いベースラインと競合する結果が得られることを実証する。
論文 参考訳(メタデータ) (2020-11-20T08:56:31Z) - Bridging Text and Knowledge with Multi-Prototype Embedding for Few-Shot
Relational Triple Extraction [40.00702385889112]
本稿では,関係三重項の合成を共同で抽出する,新しいマルチプロトタイプ埋め込みネットワークモデルを提案する。
我々は、エンティティとリレーションの両方に関するテキストと知識を橋渡しするハイブリッド学習機構を設計する。
実験により, 提案手法は, 数発トリプル抽出の性能を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-10-30T04:18:39Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention [63.26288066935098]
本稿では,ニューラルネットワーク,コラボレーティング・リレーショナル・アテンション(CoRA)を提案する。
一般的なベンチマークデータセットNYTの実験では、提案されたCoRAは、最先端のパフォーマンスを大きなマージンで改善する。
論文 参考訳(メタデータ) (2020-10-08T05:34:43Z) - Type-augmented Relation Prediction in Knowledge Graphs [65.88395564516115]
本稿では,タイプ情報とインスタンスレベルの情報の両方を関係予測に適用するタイプ拡張関係予測(TaRP)手法を提案する。
提案手法は,4つのベンチマークデータセット上での最先端手法よりも高い性能を実現する。
論文 参考訳(メタデータ) (2020-09-16T21:14:18Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。