論文の概要: Fine-grained Contrastive Learning for Relation Extraction
- arxiv url: http://arxiv.org/abs/2205.12491v1
- Date: Wed, 25 May 2022 05:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:56:06.167760
- Title: Fine-grained Contrastive Learning for Relation Extraction
- Title(参考訳): 関係抽出のための微粒コントラスト学習
- Authors: William Hogan, Jiacheng Li, Jingbo Shang
- Abstract要約: 私たちはまず、"学習順序の認知"と呼ばれるシンプルで自動的なアプローチによって、銀のラベルの品質を評価する。
次に、関係抽出のための新しい微粒コントラスト学習(FineCL)を提案する。
多くのREベンチマークの実験では、最先端の手法よりもFinCLが一貫した、重要なパフォーマンス向上を示した。
- 参考スコア(独自算出の注目度): 24.03197830993974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent relation extraction (RE) works have shown encouraging improvements by
conducting contrastive learning on silver labels generated by distant
supervision before fine-tuning on gold labels. Existing methods typically
assume all these silver labels are accurate and therefore treat them equally in
contrastive learning; however, distant supervision is inevitably noisy -- some
silver labels are more reliable than others. In this paper, we first assess the
quality of silver labels via a simple and automatic approach we call "learning
order denoising," where we train a language model to learn these relations and
record the order of learned training instances. We show that learning order
largely corresponds to label accuracy -- early learned silver labels have, on
average, more accurate labels compared to later learned silver labels. We then
propose a novel fine-grained contrastive learning (FineCL) for RE, which
leverages this additional, fine-grained information about which silver labels
are and are not noisy to improve the quality of learned relationship
representations for RE. Experiments on many RE benchmarks show consistent,
significant performance gains of FineCL over state-of-the-art methods.
- Abstract(参考訳): 近年のRelation extract (RE) は, 金ラベルの微調整前に, 遠方の監督によって生じる銀ラベルに対して対照的な学習を行うことにより, 改善を図っている。
Existing methods typically assume all these silver labels are accurate and therefore treat them equally in contrastive learning; however, distant supervision is inevitably noisy -- some silver labels are more reliable than others. In this paper, we first assess the quality of silver labels via a simple and automatic approach we call "learning order denoising," where we train a language model to learn these relations and record the order of learned training instances. We show that learning order largely corresponds to label accuracy -- early learned silver labels have, on average, more accurate labels compared to later learned silver labels.
そこで我々は,REの学習関係表現の質を向上させるために,銀ラベルがどの位置にあるのか,あるいはノイズがないのか,さらに詳細な情報を活用する新しいFineCLを提案する。
多くのreベンチマークにおける実験では、最先端のメソッドに対する finecl の一貫性と大幅なパフォーマンス向上が示されている。
関連論文リスト
- Channel-Wise Contrastive Learning for Learning with Noisy Labels [60.46434734808148]
チャネルワイド・コントラッシブ・ラーニング(CWCL)を導入し,真正なラベル情報とノイズを区別する。
従来のインスタンス単位のコントラスト学習(IWCL)とは異なり、CWCLはよりニュアンスでレジリエントな特徴を真のラベルと一致させる傾向にある。
まずCWCLを用いて、クリーンにラベル付けされたサンプルを識別し、次に、これらのサンプルを段階的に微調整する。
論文 参考訳(メタデータ) (2023-08-14T06:04:50Z) - GaussianMLR: Learning Implicit Class Significance via Calibrated
Multi-Label Ranking [0.0]
本稿では,ガウスMLRという新しい多ラベルランキング手法を提案する。
これは、正のラベルのランクを決定する暗黙のクラス重要性の値を学ぶことを目的としている。
提案手法は, 組み込まれた正のランク順の表現を正確に学習できることを示す。
論文 参考訳(メタデータ) (2023-03-07T14:09:08Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Better Few-Shot Relation Extraction with Label Prompt Dropout [7.939146925759088]
本稿では,学習過程におけるラベル記述をランダムに除去するラベルプロンプトドロップアウトという新しい手法を提案する。
実験の結果,本手法はクラス表現の改善に寄与し,数発の関係抽出タスクにおいて,より優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-10-25T03:03:09Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - A Theory-Driven Self-Labeling Refinement Method for Contrastive
Representation Learning [111.05365744744437]
教師なしのコントラスト学習は、正のイメージの作物と、負のイメージの作物とをラベル付けする。
本研究は, コントラスト学習において, 不正確なラベル割り当てがセマンティック・インスタンス識別の一般化を著しく損なうことを最初に証明する。
この理論に触発されて、コントラスト学習のための新しい自己ラベル改善手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T14:24:52Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - A Theoretical Analysis of Learning with Noisily Labeled Data [62.946840431501855]
最初に、最初のエポックトレーニングで、クリーンラベルの例が先に学習されることを示しました。
次に、クリーンデータステージから学習した後、継続的なトレーニングモデルがテストエラーのさらなる改善を達成できることを示します。
論文 参考訳(メタデータ) (2021-04-08T23:40:02Z) - Rethinking the Value of Labels for Improving Class-Imbalanced Learning [20.953282288425118]
クラス不均衡学習は、半教師ありと自己教師ありの両方の方法において有益である。
不均衡なラベルは常に役に立ちません。
この結果から,現実的な長期タスクにおける不均衡ラベルの使用を再考する必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2020-06-13T01:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。