論文の概要: ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute
Representation Learning
- arxiv url: http://arxiv.org/abs/2104.04697v1
- Date: Sat, 10 Apr 2021 06:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:29:02.860373
- Title: ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute
Representation Learning
- Title(参考訳): ZS-BERT:属性表現学習によるゼロショット関係抽出に向けて
- Authors: Chih-Yao Chen, Cheng-Te Li
- Abstract要約: 目に見える関係と見えない関係のテキスト記述を組み込んでゼロショット関係抽出問題を定式化する。
本稿では,手作りラベリングや複数対属性分類を使わずに,目に見えない関係を直接予測する,新しいマルチタスク学習モデルであるゼロショットBERTを提案する。
2つのよく知られたデータセットで行われた実験では、ZS-BERTが少なくとも13.54%のF1スコアの改善によって既存の方法より優れていることが示されています。
- 参考スコア(独自算出の注目度): 10.609715843964263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While relation extraction is an essential task in knowledge acquisition and
representation, and new-generated relations are common in the real world, less
effort is made to predict unseen relations that cannot be observed at the
training stage. In this paper, we formulate the zero-shot relation extraction
problem by incorporating the text description of seen and unseen relations. We
propose a novel multi-task learning model, zero-shot BERT (ZS-BERT), to
directly predict unseen relations without hand-crafted attribute labeling and
multiple pairwise classifications. Given training instances consisting of input
sentences and the descriptions of their relations, ZS-BERT learns two functions
that project sentences and relation descriptions into an embedding space by
jointly minimizing the distances between them and classifying seen relations.
By generating the embeddings of unseen relations and new-coming sentences based
on such two functions, we use nearest neighbor search to obtain the prediction
of unseen relations. Experiments conducted on two well-known datasets exhibit
that ZS-BERT can outperform existing methods by at least 13.54\% improvement on
F1 score.
- Abstract(参考訳): 関係抽出は知識獲得と表現において必須の課題であり、実世界では新たな生成関係が一般的である一方で、訓練段階では観察できない未知の関係を予測しようとする努力は少ない。
本稿では, ゼロショット関係抽出問題を, 目に見えない関係のテキスト記述を取り入れて定式化する。
本研究では,手作りの属性ラベルや複数対の分類を使わずに,目に見えない関係を直接予測する,新しいマルチタスク学習モデルであるゼロショットBERT(ZS-BERT)を提案する。
ZS-BERTは、入力文とそれらの関係の記述からなる訓練例を前提として、文と関係記述を埋め込み空間に投影する2つの関数を、それらの間の距離を最小化し、目に見える関係を分類することによって学習する。
このような2つの機能に基づいて、未知の関係と新しい文の埋め込みを生成することにより、近接探索を用いて未知の関係の予測を得る。
2つのよく知られたデータセットで実施された実験では、ZS-BERTはF1スコアに対して少なくとも13.54 %改善することで既存の手法より優れていることが示されている。
関連論文リスト
- Learning Complete Topology-Aware Correlations Between Relations for Inductive Link Prediction [121.65152276851619]
関係性間の意味的相関は本質的にエッジレベルとエンティティ非依存であることを示す。
本研究では,関係関係のトポロジ・アウェア・コレレーションをモデル化するための新しいサブグラフベース手法,TACOを提案する。
RCNのポテンシャルをさらに活用するために, 完全コモンニアインダストリアルサブグラフを提案する。
論文 参考訳(メタデータ) (2023-09-20T08:11:58Z) - Open Set Relation Extraction via Unknown-Aware Training [72.10462476890784]
負のインスタンスを動的に合成することでモデルを正規化する未知の学習手法を提案する。
テキストの敵対的攻撃に触発されて、我々は適応的に、小さいが重要な摂動を元のトレーニングインスタンスに適用する。
実験結果から, 既知の関係の分類を損なうことなく, 未知の関係検出を行うことができた。
論文 参考訳(メタデータ) (2023-06-08T05:45:25Z) - Sentence-Level Relation Extraction via Contrastive Learning with
Descriptive Relation Prompts [1.5736899098702974]
本稿では、エンティティ情報、関係知識、エンティティタイプ制約を協調的に考慮する新しいパラダイムであるContrastive Learning with Descriptive Relation Prompts(CTL-)を提案する。
CTL-はTACREDで76.7%のF1スコアを獲得している。
新しい提案パラダイムは、最先端のパフォーマンスであるTACREVとRe-TACREDでそれぞれ85.8%と91.6%のF1スコアを達成する。
論文 参考訳(メタデータ) (2023-04-11T02:15:13Z) - Relation-dependent Contrastive Learning with Cluster Sampling for
Inductive Relation Prediction [30.404149577013595]
帰納的関係予測のための関係依存型コントラスト学習(ReCoLe)を導入する。
GNNベースのエンコーダはコントラスト学習によって最適化され、ロングテール関係における良好な性能が保証される。
実験結果から、ReCoLeは一般的に使用される帰納的データセット上で最先端の手法より優れていることが示唆された。
論文 参考訳(メタデータ) (2022-11-22T13:30:49Z) - Prompt-based Zero-shot Relation Extraction with Semantic Knowledge
Augmentation [3.154631846975021]
関係3重項抽出では、トレーニングインスタンスが存在しない見知らぬ関係を認識することは難しい課題である。
ゼロショット設定下での未知の関係を認識するために,意味知識増強(ZS-SKA)を用いたプロンプトベースモデルを提案する。
論文 参考訳(メタデータ) (2021-12-08T19:34:27Z) - D-REX: Dialogue Relation Extraction with Explanations [65.3862263565638]
この研究は、部分的にラベル付けされたデータのみを使用しながら関係が存在することを示す説明を抽出することに焦点を当てている。
本稿では,政策誘導型半教師付きアルゴリズムD-REXを提案する。
約90%の人は、強いBERTに基づく関節関係抽出と説明モデルよりもD-REXの説明を好んでいる。
論文 参考訳(メタデータ) (2021-09-10T22:30:48Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Relation of the Relations: A New Paradigm of the Relation Extraction
Problem [52.21210549224131]
我々は,関係抽出(RE)の新たなパラダイムを提案し,同じ文脈におけるすべての関係の予測を総合的に検討する。
我々は、手作りのルールを必要としないデータ駆動型アプローチを開発し、グラフニューラルネットワークと関係行列変換器を用いた関係関係(RoR)をそれ自体で学習する。
実験の結果、私たちのモデルはACE05データセットでは+1.12%、SemEval 2018 Task 7.2では2.55%で最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-06-05T22:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。