論文の概要: Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training
- arxiv url: http://arxiv.org/abs/2010.10894v1
- Date: Wed, 21 Oct 2020 11:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:50:41.266867
- Title: Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training
- Title(参考訳): 関係を分離する学習:エンティティガイドによる関係分類とコンフュージョン・アウェアトレーニング
- Authors: Yingyao Wang, Junwei Bao, Guangyi Liu, Youzheng Wu, Xiaodong He, Bowen
Zhou and Tiejun Zhao
- Abstract要約: 本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
- 参考スコア(独自算出の注目度): 49.9995628166064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to enhance the few-shot relation classification especially
for sentences that jointly describe multiple relations. Due to the fact that
some relations usually keep high co-occurrence in the same context, previous
few-shot relation classifiers struggle to distinguish them with few annotated
instances. To alleviate the above relation confusion problem, we propose CTEG,
a model equipped with two mechanisms to learn to decouple these easily-confused
relations. On the one hand, an Entity-Guided Attention (EGA) mechanism, which
leverages the syntactic relations and relative positions between each word and
the specified entity pair, is introduced to guide the attention to filter out
information causing confusion. On the other hand, a Confusion-Aware Training
(CAT) method is proposed to explicitly learn to distinguish relations by
playing a pushing-away game between classifying a sentence into a true relation
and its confusing relation. Extensive experiments are conducted on the FewRel
dataset, and the results show that our proposed model achieves comparable and
even much better results to strong baselines in terms of accuracy. Furthermore,
the ablation test and case study verify the effectiveness of our proposed EGA
and CAT, especially in addressing the relation confusion problem.
- Abstract(参考訳): 本稿では,特に複数の関係を共同で記述する文に対して,数発の関係分類を強化することを目的とする。
ある関係は通常、同じ文脈で高い共起を維持するため、以前の少数ショット関係分類器は、注釈付きインスタンスでそれらを区別するのに苦労している。
上記の関係混同問題を緩和するため,これらの関係を分離する2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、各単語と特定エンティティペア間の構文的関係と相対的位置を利用するエンティティガイド注意(EGA)機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング (CAT) 法では,文章を真の関係と混乱した関係に分類し,押出ゲームによって関係をはっきり区別する手法が提案されている。
FewRelデータセットを用いて大規模な実験を行い,提案したモデルが精度の点で高いベースラインに比較して,さらに優れた結果が得られることを示した。
さらに, アブレーション試験とケーススタディにより, 提案したEGAとCATの有効性が検証された。
関連論文リスト
- Multiple Relations Classification using Imbalanced Predictions
Adaptation [0.0]
関係分類タスクは、対象物と対象物のペアに適切な意味関係を割り当てる。
現在の関係分類モデルは、1つの文で複数の関係を識別する追加の手順を用いる。
本稿では,これらの課題に対処する複数の関係分類モデルを提案する。
論文 参考訳(メタデータ) (2023-09-24T18:36:22Z) - Learning Complete Topology-Aware Correlations Between Relations for Inductive Link Prediction [121.65152276851619]
関係性間の意味的相関は本質的にエッジレベルとエンティティ非依存であることを示す。
本研究では,関係関係のトポロジ・アウェア・コレレーションをモデル化するための新しいサブグラフベース手法,TACOを提案する。
RCNのポテンシャルをさらに活用するために, 完全コモンニアインダストリアルサブグラフを提案する。
論文 参考訳(メタデータ) (2023-09-20T08:11:58Z) - Open Set Relation Extraction via Unknown-Aware Training [72.10462476890784]
負のインスタンスを動的に合成することでモデルを正規化する未知の学習手法を提案する。
テキストの敵対的攻撃に触発されて、我々は適応的に、小さいが重要な摂動を元のトレーニングインスタンスに適用する。
実験結果から, 既知の関係の分類を損なうことなく, 未知の関係検出を行うことができた。
論文 参考訳(メタデータ) (2023-06-08T05:45:25Z) - Sentence-Level Relation Extraction via Contrastive Learning with
Descriptive Relation Prompts [1.5736899098702974]
本稿では、エンティティ情報、関係知識、エンティティタイプ制約を協調的に考慮する新しいパラダイムであるContrastive Learning with Descriptive Relation Prompts(CTL-)を提案する。
CTL-はTACREDで76.7%のF1スコアを獲得している。
新しい提案パラダイムは、最先端のパフォーマンスであるTACREVとRe-TACREDでそれぞれ85.8%と91.6%のF1スコアを達成する。
論文 参考訳(メタデータ) (2023-04-11T02:15:13Z) - FECANet: Boosting Few-Shot Semantic Segmentation with Feature-Enhanced
Context-Aware Network [48.912196729711624]
Few-shot セマンティックセグメンテーション(Few-shot semantic segmentation)は、新しいクラスの各ピクセルを、わずかに注釈付きサポートイメージで検索するタスクである。
本稿では,クラス間の類似性に起因するマッチングノイズを抑制するために,機能拡張コンテキスト認識ネットワーク(FECANet)を提案する。
さらに,前景と背景の余分な対応関係を符号化する新たな相関再構成モジュールを提案する。
論文 参考訳(メタデータ) (2023-01-19T16:31:13Z) - Document-level Relation Extraction with Relation Correlations [15.997345900917058]
文書レベルの関係抽出は,長期問題と複数ラベル問題という,見落とされた2つの課題に直面している。
関係の共起相関を解析し,DocREタスクに初めて導入する。
論文 参考訳(メタデータ) (2022-12-20T11:17:52Z) - ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute
Representation Learning [10.609715843964263]
目に見える関係と見えない関係のテキスト記述を組み込んでゼロショット関係抽出問題を定式化する。
本稿では,手作りラベリングや複数対属性分類を使わずに,目に見えない関係を直接予測する,新しいマルチタスク学習モデルであるゼロショットBERTを提案する。
2つのよく知られたデータセットで行われた実験では、ZS-BERTが少なくとも13.54%のF1スコアの改善によって既存の方法より優れていることが示されています。
論文 参考訳(メタデータ) (2021-04-10T06:53:41Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Logic-guided Semantic Representation Learning for Zero-Shot Relation
Classification [31.887770824130957]
ゼロショット関係分類のための論理誘導型意味表現学習モデルを提案する。
我々のアプローチは、暗黙的および明示的な意味表現と知識グラフの埋め込みと論理規則との接続を構築する。
論文 参考訳(メタデータ) (2020-10-30T04:30:09Z) - Improving Long-Tail Relation Extraction with Collaborating
Relation-Augmented Attention [63.26288066935098]
本稿では,ニューラルネットワーク,コラボレーティング・リレーショナル・アテンション(CoRA)を提案する。
一般的なベンチマークデータセットNYTの実験では、提案されたCoRAは、最先端のパフォーマンスを大きなマージンで改善する。
論文 参考訳(メタデータ) (2020-10-08T05:34:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。