論文の概要: Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention
- arxiv url: http://arxiv.org/abs/2010.03773v2
- Date: Mon, 2 Nov 2020 02:38:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 12:07:14.312276
- Title: Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention
- Title(参考訳): 協調関係強化注意による長距離関係抽出の改善
- Authors: Yang Li, Tao Shen, Guodong Long, Jing Jiang, Tianyi Zhou, Chengqi
Zhang
- Abstract要約: 本稿では,ニューラルネットワーク,コラボレーティング・リレーショナル・アテンション(CoRA)を提案する。
一般的なベンチマークデータセットNYTの実験では、提案されたCoRAは、最先端のパフォーマンスを大きなマージンで改善する。
- 参考スコア(独自算出の注目度): 63.26288066935098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wrong labeling problem and long-tail relations are two main challenges caused
by distant supervision in relation extraction. Recent works alleviate the wrong
labeling by selective attention via multi-instance learning, but cannot well
handle long-tail relations even if hierarchies of the relations are introduced
to share knowledge. In this work, we propose a novel neural network,
Collaborating Relation-augmented Attention (CoRA), to handle both the wrong
labeling and long-tail relations. Particularly, we first propose
relation-augmented attention network as base model. It operates on sentence bag
with a sentence-to-relation attention to minimize the effect of wrong labeling.
Then, facilitated by the proposed base model, we introduce collaborating
relation features shared among relations in the hierarchies to promote the
relation-augmenting process and balance the training data for long-tail
relations. Besides the main training objective to predict the relation of a
sentence bag, an auxiliary objective is utilized to guide the
relation-augmenting process for a more accurate bag-level representation. In
the experiments on the popular benchmark dataset NYT, the proposed CoRA
improves the prior state-of-the-art performance by a large margin in terms of
Precision@N, AUC and Hits@K. Further analyses verify its superior capability in
handling long-tail relations in contrast to the competitors.
- Abstract(参考訳): ワーンラベル問題とロングテール関係は、関係抽出における遠隔監督による主な課題である。
近年の研究では,多言語学習による選択的注意による誤ったラベル付けが緩和されているが,知識を共有するために関係の階層が導入されたとしても,長い尾関係をうまく扱えない。
そこで本研究では,不適切なラベル付けとロングテール関係の両方を扱うために,コラボレーティング・リレーション・オーグメンテーション(cora)を用いた新しいニューラルネットワークを提案する。
特に,関係強化型アテンションネットワークをベースモデルとして提案する。
誤ラベリングの効果を最小限に抑えるために、文対関係の注意を向けた文袋で動作する。
そして,提案モデルにより,階層内の関係間で共有される協調関係機能を導入し,関係強化プロセスを促進し,長期関係のためのトレーニングデータのバランスをとる。
文袋の関係を予測するための主訓練目的の他に、より正確な袋レベル表現のための関係提示過程を導くために補助目的を用いる。
人気のベンチマークデータセットNYTの実験では、提案されたCoRAは、Precision@N、AUC、Hits@Kの点で大きなマージンで、従来の最先端のパフォーマンスを改善している。
さらに、競合相手とは対照的に、長い尾関係を扱う優れた能力を検証する。
関連論文リスト
- Learning Complete Topology-Aware Correlations Between Relations for Inductive Link Prediction [121.65152276851619]
関係性間の意味的相関は本質的にエッジレベルとエンティティ非依存であることを示す。
本研究では,関係関係のトポロジ・アウェア・コレレーションをモデル化するための新しいサブグラフベース手法,TACOを提案する。
RCNのポテンシャルをさらに活用するために, 完全コモンニアインダストリアルサブグラフを提案する。
論文 参考訳(メタデータ) (2023-09-20T08:11:58Z) - Document-level Relation Extraction with Relation Correlations [15.997345900917058]
文書レベルの関係抽出は,長期問題と複数ラベル問題という,見落とされた2つの課題に直面している。
関係の共起相関を解析し,DocREタスクに初めて導入する。
論文 参考訳(メタデータ) (2022-12-20T11:17:52Z) - Relation-dependent Contrastive Learning with Cluster Sampling for
Inductive Relation Prediction [30.404149577013595]
帰納的関係予測のための関係依存型コントラスト学習(ReCoLe)を導入する。
GNNベースのエンコーダはコントラスト学習によって最適化され、ロングテール関係における良好な性能が保証される。
実験結果から、ReCoLeは一般的に使用される帰納的データセット上で最先端の手法より優れていることが示唆された。
論文 参考訳(メタデータ) (2022-11-22T13:30:49Z) - Improving Long Tailed Document-Level Relation Extraction via Easy
Relation Augmentation and Contrastive Learning [66.83982926437547]
我々は,DocREが現実のシナリオにおいて,長期分布問題の緩和に不可欠であると主張する。
長期分布問題に動機付けられ,DocREを改善するための簡易関係拡張法(ERA)を提案する。
論文 参考訳(メタデータ) (2022-05-21T06:15:11Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Distantly-Supervised Long-Tailed Relation Extraction Using Constraint
Graphs [16.671606030727975]
本稿では,関係ラベル間の依存関係をモデル化するための制約グラフを提案する。
また,2つの課題を同時に扱うために,制約グラフに基づく関係抽出フレームワーク(CGRE)を提案する。
CGREはグラフ畳み込みネットワーク(GCN)を用いて、データリッチな関係ノードからデータ貧弱な関係ノードへ情報を伝達する。
論文 参考訳(メタデータ) (2021-05-24T12:02:32Z) - Distantly Supervised Relation Extraction via Recursive
Hierarchy-Interactive Attention and Entity-Order Perception [3.8651116146455533]
文中では、2つの実体の出現順序は、その意味論の理解に寄与する。
文エンコーダがよりエンティティの外観情報を保持できるように,Entity-Order Perception (EOP) と呼ばれる新たな訓練目標を導入する。
提案手法は,P-R曲線,AUC,Top-N精度などの評価指標を用いて,最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-18T00:45:25Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。