論文の概要: Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition
- arxiv url: http://arxiv.org/abs/2305.13142v1
- Date: Mon, 22 May 2023 15:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 14:45:09.129211
- Title: Better Sampling of Negatives for Distantly Supervised Named Entity
Recognition
- Title(参考訳): 遠隔監視型名前付きエンティティ認識における負のサンプリング
- Authors: Lu Xu, Lidong Bing, Wei Lu
- Abstract要約: 本稿では, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
- 参考スコア(独自算出の注目度): 39.264878763160766
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Distantly supervised named entity recognition (DS-NER) has been proposed to
exploit the automatically labeled training data instead of human annotations.
The distantly annotated datasets are often noisy and contain a considerable
number of false negatives. The recent approach uses a weighted sampling
approach to select a subset of negative samples for training. However, it
requires a good classifier to assign weights to the negative samples. In this
paper, we propose a simple and straightforward approach for selecting the top
negative samples that have high similarities with all the positive samples for
training. Our method achieves consistent performance improvements on four
distantly supervised NER datasets. Our analysis also shows that it is critical
to differentiate the true negatives from the false negatives.
- Abstract(参考訳): 人間のアノテーションの代わりに自動的にラベル付けされたトレーニングデータを活用するために、遠隔監視型エンティティ認識(DS-NER)が提案されている。
遠方の注釈付きデータセットはしばしば騒がしく、かなりの数の偽陰性を含んでいる。
最近のアプローチでは、トレーニングのために負のサンプルのサブセットを選択するために重み付けサンプリングアプローチを採用している。
しかし、負のサンプルに重みを割り当てるために良い分類器が必要である。
本稿では,全ての正のサンプルと高い類似性を有するトップ負のサンプルを選択するための,単純かつ簡単なアプローチを提案する。
提案手法は,4つの遠隔教師付きNERデータセットに対して一貫した性能向上を実現する。
また,本分析は,真偽陰性と偽陰性とを区別することが重要であることも示唆した。
関連論文リスト
- Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Robust Positive-Unlabeled Learning via Noise Negative Sample
Self-correction [48.929877651182885]
正および未ラベルのデータから学ぶことは、文学における正の未ラベル(PU)学習として知られている。
本研究では,人間の学習の性質を動機とした学習戦略を取り入れた,新しい堅牢なPU学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-01T04:34:52Z) - SimANS: Simple Ambiguous Negatives Sampling for Dense Text Retrieval [126.22182758461244]
評価結果によると, 正の値にランク付けされた負の値は, 一般的にはより情報的であり, 偽陰の可能性が低いことがわかった。
そこで本研究では,よりあいまいな負のサンプリングに新しいサンプリング確率分布を組み込んだ,単純な曖昧な負のサンプリング手法であるSimANSを提案する。
論文 参考訳(メタデータ) (2022-10-21T07:18:05Z) - Generating Negative Samples for Sequential Recommendation [83.60655196391855]
逐次レコメンデーション(SR)のための負のサンプル(イテム)を生成することを提案する。
アイテムに対する現在のSRモデルの学習されたユーザの好みに基づいて、各タイムステップで負の項目をサンプリングする。
4つの公開データセットの実験は、SRに高品質な負のサンプルを提供することの重要性を検証する。
論文 参考訳(メタデータ) (2022-08-07T05:44:13Z) - Rethinking Negative Sampling for Unlabeled Entity Problem in Named
Entity Recognition [47.273602658066196]
ラベルのないエンティティは、名前付きエンティティ認識モデルのパフォーマンスを著しく劣化させる。
我々は、なぜ負のサンプリングが理論的にも経験的にも成功するのかを分析する。
負サンプリングのための重み付き適応サンプリング分布を提案する。
論文 参考訳(メタデータ) (2021-08-26T07:02:57Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Simplify and Robustify Negative Sampling for Implicit Collaborative
Filtering [42.832851785261894]
本稿では,まず,モデル学習において潜在的に重要な事例が少数存在することを実証的に観察し,ネガティブな事例を新たに理解する。
次に、メモリに格納された高分散サンプルを好んで、修正されていない偽陰性問題に取り組む。
2つの合成データセットと3つの実世界のデータセットの実証結果は、我々の負サンプリング法の堅牢性と優位性を示している。
論文 参考訳(メタデータ) (2020-09-07T19:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。