論文の概要: Improving Distantly Supervised Relation Extraction with Self-Ensemble
Noise Filtering
- arxiv url: http://arxiv.org/abs/2108.09689v1
- Date: Sun, 22 Aug 2021 11:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 03:09:35.208766
- Title: Improving Distantly Supervised Relation Extraction with Self-Ensemble
Noise Filtering
- Title(参考訳): 自己センブルノイズフィルタリングによる遠隔教師付き関係抽出の改善
- Authors: Tapas Nayak and Navonil Majumder and Soujanya Poria
- Abstract要約: 本研究では,学習過程におけるノイズを除去する自己アンサンブルフィルタリング機構を提案する。
複数の最先端関係抽出モデルを用いた実験により,提案したフィルタリング機構はモデルの堅牢性を改善し,F1スコアを増加させることを示す。
- 参考スコア(独自算出の注目度): 17.45521023572853
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Distantly supervised models are very popular for relation extraction since we
can obtain a large amount of training data using the distant supervision method
without human annotation. In distant supervision, a sentence is considered as a
source of a tuple if the sentence contains both entities of the tuple. However,
this condition is too permissive and does not guarantee the presence of
relevant relation-specific information in the sentence. As such, distantly
supervised training data contains much noise which adversely affects the
performance of the models. In this paper, we propose a self-ensemble filtering
mechanism to filter out the noisy samples during the training process. We
evaluate our proposed framework on the New York Times dataset which is obtained
via distant supervision. Our experiments with multiple state-of-the-art neural
relation extraction models show that our proposed filtering mechanism improves
the robustness of the models and increases their F1 scores.
- Abstract(参考訳): 遠隔監視モデルでは,人間のアノテーションを使わずに遠隔監視法を用いて大量の訓練データを得ることができるため,関係抽出に非常に人気がある。
遠隔の監督では、文がタプルの2つの実体を含む場合、文はタプルの源と見なされる。
しかし、この条件は寛容であり、文中に関連性固有の情報が存在することを保証していない。
そのため、遠方の教師付きトレーニングデータには、モデルの性能に悪影響を及ぼす多くのノイズが含まれている。
本稿では,学習過程におけるノイズを除去する自己アンサンブルフィルタリング機構を提案する。
提案フレームワークは,遠方の監視によって得られたnew york timesデータセット上で評価する。
複数の最先端神経関係抽出モデルを用いた実験により,提案するフィルタリング機構がモデルのロバスト性を改善し,f1スコアを増加させることを示した。
関連論文リスト
- Weak Reward Model Transforms Generative Models into Robust Causal Event Extraction Systems [17.10762463903638]
我々は人的評価を近似するために評価モデルを訓練し、高い合意を得る。
そこで本研究では,アノテートデータの一部を用いて評価モデルを訓練する弱強監督手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T10:48:14Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Class-Adaptive Self-Training for Relation Extraction with Incompletely
Annotated Training Data [43.46328487543664]
関係抽出(RE)は、文や文書から関係を抽出することを目的としている。
最近の研究により、多くのREデータセットが不完全注釈付きであることが示されている。
これは、有効関係が「no_relation」として誤って注釈付けされる偽陰問題として知られている。
論文 参考訳(メタデータ) (2023-06-16T09:01:45Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Improving the Robustness of Summarization Models by Detecting and
Removing Input Noise [50.27105057899601]
本研究では,様々な種類の入力ノイズから,様々なデータセットやモデルサイズに対する性能損失を定量化する大規模な実験的検討を行った。
本稿では,モデル推論中の入力中のそのようなノイズを検出し,除去するための軽量な手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T00:33:11Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Few Clean Instances Help Denoising Distant Supervision [28.336399223985175]
遠隔教師付きモデルの品質向上には,小さなクリーンデータセットが有効かどうかを検討する。
モデルのより説得力のある評価に加えて、小さなクリーンなデータセットは、より堅牢なデノゲーションモデルの構築にも役立ちます。
論文 参考訳(メタデータ) (2022-09-14T12:29:57Z) - Unsupervised Extractive Summarization by Pre-training Hierarchical
Transformers [107.12125265675483]
教師なし抽出文書要約は、訓練中にラベル付き要約を用いることなく、文書から重要な文章を選択することを目的としている。
既存の手法は主にグラフベースで、文をノードとして、エッジの重みは文の類似性によって測定される。
教師なし抽出要約のための文のランク付けにはトランスフォーマーの注意が利用できることがわかった。
論文 参考訳(メタデータ) (2020-10-16T08:44:09Z) - Self-Supervised Contrastive Learning for Unsupervised Phoneme
Segmentation [37.054709598792165]
このモデルは畳み込みニューラルネットワークであり、生波形上で直接動作する。
ノイズコントラスト推定原理を用いて信号のスペクトル変化を同定する。
テスト時には、モデル出力にピーク検出アルゴリズムを適用して最終境界を生成する。
論文 参考訳(メタデータ) (2020-07-27T12:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。