論文の概要: Knowing False Negatives: An Adversarial Training Method for Distantly
Supervised Relation Extraction
- arxiv url: http://arxiv.org/abs/2109.02099v1
- Date: Sun, 5 Sep 2021 15:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:00:10.332081
- Title: Knowing False Negatives: An Adversarial Training Method for Distantly
Supervised Relation Extraction
- Title(参考訳): 偽否定を知る: 遠隔監視関係抽出のための逆学習法
- Authors: Kailong Hao and Botao Yu and Wei Hu
- Abstract要約: 疑似負関係抽出のための2段階のアプローチを提案する。
まず、ディープニューラルネットワークのメモリ機構を利用して、可能なFNサンプルを見つける。
そして、これらのラベルのないデータとトレーニングデータとを、擬似ラベルを割り当てる対向訓練により、統一された特徴空間に整列する。
- 参考スコア(独自算出の注目度): 8.764365529317923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distantly supervised relation extraction (RE) automatically aligns
unstructured text with relation instances in a knowledge base (KB). Due to the
incompleteness of current KBs, sentences implying certain relations may be
annotated as N/A instances, which causes the so-called false negative (FN)
problem. Current RE methods usually overlook this problem, inducing improper
biases in both training and testing procedures. To address this issue, we
propose a two-stage approach. First, it finds out possible FN samples by
heuristically leveraging the memory mechanism of deep neural networks. Then, it
aligns those unlabeled data with the training data into a unified feature space
by adversarial training to assign pseudo labels and further utilize the
information contained in them. Experiments on two wildly-used benchmark
datasets demonstrate the effectiveness of our approach.
- Abstract(参考訳): 遠隔教師付き関係抽出(RE)は、知識ベース(KB)における非構造化テキストと関係インスタンスを自動的に調整する。
現在のKBの不完全性のため、ある関係を示す文はN/Aインスタンスとして注釈付けされ、いわゆる偽陰性(FN)問題を引き起こす。
現在のREメソッドは通常この問題を見落とし、トレーニングとテストの両方で不適切なバイアスを引き起こす。
この問題に対処するために,我々は二段階アプローチを提案する。
まず、深層ニューラルネットワークのメモリ機構をヒューリスティックに活用することで、fnサンプルを見つける。
そして、これらの未ラベルデータとトレーニングデータとを、擬似ラベルを割り当てる対向訓練により統合された特徴空間に整合させ、それらに含まれる情報をさらに活用する。
2つの大胆なベンチマークデータセットの実験は、我々のアプローチの有効性を実証している。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Class-Adaptive Self-Training for Relation Extraction with Incompletely
Annotated Training Data [43.46328487543664]
関係抽出(RE)は、文や文書から関係を抽出することを目的としている。
最近の研究により、多くのREデータセットが不完全注釈付きであることが示されている。
これは、有効関係が「no_relation」として誤って注釈付けされる偽陰問題として知られている。
論文 参考訳(メタデータ) (2023-06-16T09:01:45Z) - Open Set Relation Extraction via Unknown-Aware Training [72.10462476890784]
負のインスタンスを動的に合成することでモデルを正規化する未知の学習手法を提案する。
テキストの敵対的攻撃に触発されて、我々は適応的に、小さいが重要な摂動を元のトレーニングインスタンスに適用する。
実験結果から, 既知の関係の分類を損なうことなく, 未知の関係検出を行うことができた。
論文 参考訳(メタデータ) (2023-06-08T05:45:25Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Robust Neural Network Classification via Double Regularization [2.41710192205034]
本稿では、分類モデルの複雑さに対するペナルティと、学習観察の最適な再重み付けを組み合わせた、ニューラルネットワークトレーニング損失の新しい二重正則化を提案する。
我々は, (i) MNIST と (ii) CIFAR-10 のニューラルネット分類のための DRFit について, 両者の相違点について実証した。
論文 参考訳(メタデータ) (2021-12-15T13:19:20Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Revisiting the Negative Data of Distantly Supervised Relation Extraction [17.00557139562208]
遠隔監視は、関係抽出のための多くのトレーニングサンプルを自動的に生成する。
また、ノイズラベルと不均衡なトレーニングデータという2つの大きな問題も発生している。
そこで我々はtextscReRe と呼ばれるパイプライン手法を提案し,文レベルの関係検出を行い,対象/対象抽出を行う。
論文 参考訳(メタデータ) (2021-05-21T06:44:19Z) - RATT: Leveraging Unlabeled Data to Guarantee Generalization [96.08979093738024]
ラベルのないデータを利用して一般化境界を生成する手法を紹介します。
境界が0-1経験的リスク最小化に有効であることを証明します。
この作業は、見えないラベル付きデータが利用できない場合でも、ディープネットの一般化を証明するためのオプションを実践者に提供します。
論文 参考訳(メタデータ) (2021-05-01T17:05:29Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。