論文の概要: Automatic Noisy Label Correction for Fine-Grained Entity Typing
- arxiv url: http://arxiv.org/abs/2205.03011v1
- Date: Fri, 6 May 2022 04:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:11:58.261449
- Title: Automatic Noisy Label Correction for Fine-Grained Entity Typing
- Title(参考訳): ファイングラインドエンティティタイピングのためのノイズラベルの自動補正
- Authors: Weiran Pan, Wei Wei, Feida Zhu
- Abstract要約: きめ細かいエンティティ型付け(FET)は、コンテキストに応じてエンティティの参照に適切なセマンティック型を割り当てることを目的としている。
現在のFETシステムは通常、大規模で弱い教師付き/依存的なアノテーションデータに基づいて構築される。
外部リソースを使わずにFETのノイズラベルを自動的に修正する手法を提案する。
- 参考スコア(独自算出の注目度): 9.946970137070462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained entity typing (FET) aims to assign proper semantic types to
entity mentions according to their context, which is a fundamental task in
various entity-leveraging applications. Current FET systems usually establish
on large-scale weakly-supervised/distantly annotation data, which may contain
abundant noise and thus severely hinder the performance of the FET task.
Although previous studies have made great success in automatically identifying
the noisy labels in FET, they usually rely on some auxiliary resources which
may be unavailable in real-world applications (e.g. pre-defined hierarchical
type structures, human-annotated subsets). In this paper, we propose a novel
approach to automatically correct noisy labels for FET without external
resources. Specifically, it first identifies the potentially noisy labels by
estimating the posterior probability of a label being positive or negative
according to the logits output by the model, and then relabel candidate noisy
labels by training a robust model over the remaining clean labels. Experiments
on two popular benchmarks prove the effectiveness of our method. Our source
code can be obtained from \url{https://github.com/CCIIPLab/DenoiseFET}.
- Abstract(参考訳): きめ細かいエンティティ型付け(FET)は、コンテキストに応じてエンティティの参照に適切なセマンティック型を割り当てることを目的としています。
現在のFETシステムは通常、大量のノイズを伴ってFETタスクの性能を著しく損なうような、大規模で弱い教師付き/依存的なアノテーションデータに基づいている。
以前の研究では、FETのノイズラベルを自動的に識別することに成功したが、現実のアプリケーションでは利用できないいくつかの補助的なリソース(例えば、事前定義された階層型構造、人間の注釈付きサブセット)に依存している。
本稿では,外部リソースを使わずにFETのノイズラベルを自動的に修正する手法を提案する。
具体的には、まず、モデルが出力したロジットに応じてラベルの後方確率を正または負と推定し、残りのクリーンラベルに対してロバストモデルを訓練してrelabel候補のノイズラベルを識別する。
2つの人気のあるベンチマーク実験により,本手法の有効性が証明された。
ソースコードは \url{https://github.com/CCIIPLab/DenoiseFET} から取得できます。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Learning to Correct Noisy Labels for Fine-Grained Entity Typing via
Co-Prediction Prompt Tuning [9.885278527023532]
FETにおける雑音補正のためのコプレディション・プロンプト・チューニングを提案する。
ラベル付きラベルをリコールするために予測結果を統合し、区別されたマージンを用いて不正確なラベルを識別する。
広範に使われている3つのFETデータセットの実験結果から,我々のノイズ補正アプローチはトレーニングサンプルの品質を著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-10-23T06:04:07Z) - Drawing the Same Bounding Box Twice? Coping Noisy Annotations in Object
Detection with Repeated Labels [6.872072177648135]
そこで本研究では,基礎的真理推定手法に適合する新しい局所化アルゴリズムを提案する。
また,本アルゴリズムは,TexBiGデータセット上でのトレーニングにおいて,優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-18T13:08:44Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - Binary Classification with Positive Labeling Sources [71.37692084951355]
WEAPOは、負のラベル付け源を使わずにトレーニングラベルを作成するための、シンプルで競争力のあるWS手法である。
We show WEAPO achieve the highest averaged performance on 10 benchmark datasets。
論文 参考訳(メタデータ) (2022-08-02T19:32:08Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Semi-Supervised Speech Recognition via Graph-based Temporal
Classification [59.58318952000571]
半教師付き学習は自己学習による自動音声認識において有望な結果を示した。
このアプローチの有効性は、主に擬似ラベルの精度に依存する。
N-bestリストの別のASR仮説は、ラベルなしの発話に対してより正確なラベルを提供することができる。
論文 参考訳(メタデータ) (2020-10-29T14:56:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。