論文の概要: Pre-training to Match for Unified Low-shot Relation Extraction
- arxiv url: http://arxiv.org/abs/2203.12274v1
- Date: Wed, 23 Mar 2022 08:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 01:31:20.419163
- Title: Pre-training to Match for Unified Low-shot Relation Extraction
- Title(参考訳): 統一低ショット関係抽出のための事前学習
- Authors: Fangchao Liu, Hongyu Lin, Xianpei Han, Boxi Cao, Le Sun
- Abstract要約: ローショット関係抽出は、サンプルがほとんど、あるいは全くない新しい関係を認識することを目的としている。
ローショットREとゼロショットREは2つの代表的なローショットREタスクである。
ローショット関係抽出を統一するマルチコースマッチングネットワークを提案する。
- 参考スコア(独自算出の注目度): 37.625078897220305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-shot relation extraction~(RE) aims to recognize novel relations with very
few or even no samples, which is critical in real scenario application.
Few-shot and zero-shot RE are two representative low-shot RE tasks, which seem
to be with similar target but require totally different underlying abilities.
In this paper, we propose Multi-Choice Matching Networks to unify low-shot
relation extraction. To fill in the gap between zero-shot and few-shot RE, we
propose the triplet-paraphrase meta-training, which leverages triplet
paraphrase to pre-train zero-shot label matching ability and uses meta-learning
paradigm to learn few-shot instance summarizing ability. Experimental results
on three different low-shot RE tasks show that the proposed method outperforms
strong baselines by a large margin, and achieve the best performance on
few-shot RE leaderboard.
- Abstract(参考訳): 低ショット関係抽出~(re)は、非常に少ない、あるいは全くないサンプルで新しい関係を認識することを目的としている。
少ないショットとゼロショットREは2つの代表的ローショットREタスクであり、同じターゲットを持つように見えるが、全く異なる基盤能力を必要とする。
本稿では,低ショット関係抽出を統一するマルチチョイスマッチングネットワークを提案する。
ゼロショットと少数ショットREのギャップを埋めるために, ゼロショットラベルマッチング能力の事前学習に三重項パラフレーズを利用するメタトレーニングを提案し, メタラーニングパラダイムを用いて, 少数ショットインスタンスの要約能力を学習する。
3つの異なる低ショットREタスクの実験結果から,提案手法は強いベースラインを大きなマージンで上回り,少数ショットREリーダーボード上で最高の性能を発揮することが示された。
関連論文リスト
- Revisiting Large Language Models as Zero-shot Relation Extractors [8.953462875381888]
リレーショナル抽出(RE)は、ゼロショット設定下であっても、一定のラベル付きまたはラベルなしのデータを一貫して含む。
近年の研究では、大きな言語モデル(LLM)が、単に自然言語のプロンプトを与えられただけで、新しいタスクにうまく移行していることが示されている。
本研究はゼロショット関係抽出器としてLLMを探索することに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-08T06:17:39Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Towards Realistic Low-resource Relation Extraction: A Benchmark with
Empirical Baseline Study [51.33182775762785]
本稿では,低リソース環境下での関係抽出システムを構築するための実証的研究について述べる。
低リソース環境での性能を評価するための3つのスキームについて検討する。 (i) ラベル付きラベル付きデータを用いた異なるタイプのプロンプトベース手法、 (ii) 長期分布問題に対処する多様なバランシング手法、 (iii) ラベル付きインドメインデータを生成するためのデータ拡張技術と自己学習。
論文 参考訳(メタデータ) (2022-10-19T15:46:37Z) - Few-shot Relational Reasoning via Connection Subgraph Pretraining [81.30830261527231]
Connection Subgraph Reasoner (CSR) は、事前トレーニングを必要とせずに、ターゲットの少数ショットタスクを直接予測することができる。
私たちのフレームワークは、既存のメソッドに対して、目標とする数ショットタスクに対して、すでに競合的に実行可能です。
論文 参考訳(メタデータ) (2022-10-13T04:35:14Z) - A Sequence Tagging based Framework for Few-Shot Relation Extraction [5.536010796119412]
リレーション抽出(Relation extract、RE)とは、入力テキスト中のリレーショントリプルを抽出することである。
本稿では,シーケンスタグ付け共同抽出手法に基づく数ショットREタスクの定義を提案し,そのタスクのための数ショットREフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:54:22Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Semantic Compositional Learning for Low-shot Scene Graph Generation [122.51930904132685]
多くのシーングラフ生成(SGG)モデルは、トレーニングに限定された注釈付き関係トリプルのみを使用する。
本稿では,新たな意味論的構成学習戦略を提案する。
最近の3つのSGGモデルでは、我々の戦略を追加することで、その性能が50%近く向上する。
論文 参考訳(メタデータ) (2021-08-19T10:13:55Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。