論文の概要: Label Verbalization and Entailment for Effective Zero- and Few-Shot
Relation Extraction
- arxiv url: http://arxiv.org/abs/2109.03659v1
- Date: Wed, 8 Sep 2021 14:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 18:53:52.352876
- Title: Label Verbalization and Entailment for Effective Zero- and Few-Shot
Relation Extraction
- Title(参考訳): 効率的なゼロ・フォア・ショット関係抽出のためのラベルバーバリゼーションとエンテーメント
- Authors: Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena and
Eneko Agirre
- Abstract要約: 本研究は,関係抽出を包括的タスクとして再構成し,関係を15分未満で生成した関係の単純で手作りの言語化を行う。
このシステムは、事前訓練されたテキストエンターメントエンジンに依存しており、as-is(訓練例、ゼロショットなし)またはラベル付き例(数発のショットまたは完全に訓練された)でさらに微調整される。
TACREDの実験では、63%のF1ゼロショット、69%は関係16例(17%は同一条件における最良監督システムより優れている)、そして4ポイントは現状より短い。
- 参考スコア(独自算出の注目度): 25.151235270747804
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Relation extraction systems require large amounts of labeled examples which
are costly to annotate. In this work we reformulate relation extraction as an
entailment task, with simple, hand-made, verbalizations of relations produced
in less than 15 min per relation. The system relies on a pretrained textual
entailment engine which is run as-is (no training examples, zero-shot) or
further fine-tuned on labeled examples (few-shot or fully trained). In our
experiments on TACRED we attain 63% F1 zero-shot, 69% with 16 examples per
relation (17% points better than the best supervised system on the same
conditions), and only 4 points short to the state-of-the-art (which uses 20
times more training data). We also show that the performance can be improved
significantly with larger entailment models, up to 12 points in zero-shot,
allowing to report the best results to date on TACRED when fully trained. The
analysis shows that our few-shot systems are specially effective when
discriminating between relations, and that the performance difference in low
data regimes comes mainly from identifying no-relation cases.
- Abstract(参考訳): 関係抽出システムは、注釈にコストがかかる大量のラベル付き例を必要とする。
本研究は,関係抽出を包括的タスクとして再構成し,関係を15分未満で生成した関係の単純で手作りの言語化を行う。
このシステムは、as-is(トレーニングサンプルなし、ゼロショットなし)またはラベル付き例(few-shotまたはfull training)でさらに微調整された事前訓練されたテキスト記述エンジンに依存している。
tacredの実験では,63%のf1ゼロショットを達成し,同じ条件下では最善の教師付きシステムよりも16例(17%改善)で69%,最先端(20倍のトレーニングデータを使用する)では4点に過ぎなかった。
さらに,最大12ポイントのゼロショットモデルによって,パフォーマンスが大幅に向上できることを示し,完全トレーニング時のtacred上での最高の結果の報告を可能にした。
分析の結果,本システムは関係の判別において特に有効であり,低データレジームにおける性能差は主に非関係事例の同定によるものであることがわかった。
関連論文リスト
- RelVAE: Generative Pretraining for few-shot Visual Relationship
Detection [2.2230760534775915]
本研究は,注釈付き関係を必要としない数発述語分類のための最初の事前学習手法を提案する。
VG200とVRDのデータセットについて,数発のトレーニング分割を構築し,定量的な実験を行った。
論文 参考訳(メタデータ) (2023-11-27T19:08:08Z) - Chain of Thought with Explicit Evidence Reasoning for Few-shot Relation
Extraction [15.553367375330843]
大規模言語モデルを用いた数ショット関係抽出のための新しい手法を提案する。
CoT-ERは、タスク固有の知識と概念レベルの知識を使用して証拠を生成するために、まず大きな言語モデルを誘導する。
論文 参考訳(メタデータ) (2023-11-10T08:12:00Z) - Class-Adaptive Self-Training for Relation Extraction with Incompletely
Annotated Training Data [43.46328487543664]
関係抽出(RE)は、文や文書から関係を抽出することを目的としている。
最近の研究により、多くのREデータセットが不完全注釈付きであることが示されている。
これは、有効関係が「no_relation」として誤って注釈付けされる偽陰問題として知られている。
論文 参考訳(メタデータ) (2023-06-16T09:01:45Z) - COLO: A Contrastive Learning based Re-ranking Framework for One-Stage
Summarization [84.70895015194188]
コントラスト学習に基づく一段階要約フレームワークであるCOLOを提案する。
COLOはCNN/DailyMailベンチマークの1段階システムの抽出と抽象化結果を44.58と46.33ROUGE-1スコアに引き上げた。
論文 参考訳(メタデータ) (2022-09-29T06:11:21Z) - Textual Entailment for Event Argument Extraction: Zero- and Few-Shot
with Multi-Source Learning [22.531385318852426]
近年の研究では,NLPタスクを文章化を用いてテキスト・エンターテイメント・タスクとして再キャストできることが示されている。
イベント引数抽出(EAE)においてもエンテーメントが有効であることを示し,手作業によるアノテーションの必要性を50%と20%に削減した。
論文 参考訳(メタデータ) (2022-05-03T08:53:55Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - Representation Learning for Weakly Supervised Relation Extraction [19.689433249830465]
本論文では、分散テキスト表現機能を学ぶための教師なし事前学習モデルをいくつか提示する。
実験により,従来の手作りの特徴と組み合わせることで,関係抽出のためのロジスティック分類モデルの性能が向上することが実証された。
論文 参考訳(メタデータ) (2021-04-10T12:22:25Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - One-shot Learning for Temporal Knowledge Graphs [49.41854171118697]
時間的知識グラフにおけるリンク予測のためのワンショット学習フレームワークを提案する。
提案手法は,実体間の時間的相互作用を効果的に符号化する自己認識機構を用いる。
実験の結果,提案アルゴリズムは2つのよく研究されたベンチマークにおいて,アートベースラインの状態よりも優れていた。
論文 参考訳(メタデータ) (2020-10-23T03:24:44Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Memory-Augmented Relation Network for Few-Shot Learning [114.47866281436829]
本研究では,新しい距離学習手法であるメモリ拡張リレーショナルネットワーク(MRN)について検討する。
MRNでは、作業状況と視覚的に類似したサンプルを選択し、重み付け情報伝搬を行い、選択したサンプルから有用な情報を注意深く集約し、その表現を強化する。
我々は、MRNが祖先よりも大幅に向上し、他の数発の学習手法と比較して、競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2020-05-09T10:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。