論文の概要: Bootstrapping Relation Extractors using Syntactic Search by Examples
- arxiv url: http://arxiv.org/abs/2102.05007v1
- Date: Tue, 9 Feb 2021 18:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 20:18:52.546666
- Title: Bootstrapping Relation Extractors using Syntactic Search by Examples
- Title(参考訳): 例による構文検索を用いたブートストラップ関係抽出器
- Authors: Matan Eyal, Asaf Amrami, Hillel Taub-Tabib, Yoav Goldberg
- Abstract要約: 非NLP専門家によって迅速に実行できるトレーニングデータセットのブートストラッププロセスを提案する。
フレンドリーなバイサンプル構文を公開する構文グラフよりも検索エンジンを利用する。
得られたモデルは,手作業による注釈付きデータや遠隔監視から得られたデータに基づいて訓練されたモデルと競合することを示す。
- 参考スコア(独自算出の注目度): 47.11932446745022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of neural-networks in NLP brought with it substantial improvements
in supervised relation extraction. However, obtaining a sufficient quantity of
training data remains a key challenge. In this work we propose a process for
bootstrapping training datasets which can be performed quickly by
non-NLP-experts. We take advantage of search engines over syntactic-graphs
(Such as Shlain et al. (2020)) which expose a friendly by-example syntax. We
use these to obtain positive examples by searching for sentences that are
syntactically similar to user input examples. We apply this technique to
relations from TACRED and DocRED and show that the resulting models are
competitive with models trained on manually annotated data and on data obtained
from distant supervision. The models also outperform models trained using NLG
data augmentation techniques. Extending the search-based approach with the NLG
method further improves the results.
- Abstract(参考訳): NLPにおけるニューラルネットワークの出現により、監視された関係抽出が大幅に改善された。
しかし、十分な量のトレーニングデータを得ることは依然として重要な課題である。
本研究では,非NLP専門家によるトレーニングデータセットのブートストラッププロセスを提案する。
構文グラフ(Such as Shlain et al)よりも検索エンジンを利用する。
(2020)は、フレンドリーなバイサンプル構文を公開する。
ユーザ入力例と構文的に類似した文を検索することで,肯定的な例を得る。
本手法はTACREDとDocREDの関係に応用し,手作業による注釈付きデータおよび遠隔監視から得られたデータに基づいてトレーニングしたモデルと競合することを示す。
モデルは、NLGデータ拡張技術を用いてトレーニングされたモデルよりも優れています。
NLG法で検索ベースアプローチを拡張することにより,結果がさらに改善される。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Robust Task-Oriented Dialogue Generation with Contrastive Pre-training
and Adversarial Filtering [17.7709632238066]
データアーティファクトは機械学習モデルにインセンティブを与え、非伝達可能な一般化を学ぶ。
我々は、MultiWOZのような一般的なデータセットがそのようなデータアーティファクトを含んでいるかどうかを検討する。
本稿では,これらの手法を無視し,一般化可能なパターンを学習することをモデルに推奨する,対照的な学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-20T03:13:02Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Abstractive Summarization for Low Resource Data using Domain Transfer
and Data Synthesis [1.148539813252112]
本稿では,近年の抽象的な要約手法の性能向上のために,ドメイン転送とデータ合成について検討する。
新聞データに基づいて訓練された美術モデルのチューニング状態は、学生の反射データの性能を高める可能性があることを示す。
トレーニングに組み込むとROUGEスコアがさらに増加するテンプレートベースの新しいデータを合成するモデルを提案する。
論文 参考訳(メタデータ) (2020-02-09T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。