論文の概要: Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection
- arxiv url: http://arxiv.org/abs/2206.12260v1
- Date: Fri, 10 Jun 2022 16:01:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 03:56:24.721564
- Title: Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection
- Title(参考訳): 弱教師付き偽ニュース検出のためのラベルノイズ耐性平均学習
- Authors: Jingyi Xie, Jiawei Liu, Zheng-Jun Zha
- Abstract要約: 本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
- 参考スコア(独自算出の注目度): 93.6222609806278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fake news spreads at an unprecedented speed, reaches global audiences and
poses huge risks to users and communities. Most existing fake news detection
algorithms focus on building supervised training models on a large amount of
manually labeled data, which is expensive to acquire or often unavailable. In
this work, we propose a novel label noise-resistant mean teaching approach
(LNMT) for weakly supervised fake news detection. LNMT leverages unlabeled news
and feedback comments of users to enlarge the amount of training data and
facilitates model training by generating refined labels as weak supervision.
Specifically, LNMT automatically assigns initial weak labels to unlabeled
samples based on semantic correlation and emotional association between news
content and the comments. Moreover, in order to suppress the noises in weak
labels, LNMT establishes a mean teacher framework equipped with label
propagation and label reliability estimation. The framework measures a weak
label similarity matrix between the teacher and student networks, and
propagates different valuable weak label information to refine the weak labels.
Meanwhile, it exploits the consistency between the output class likelihood
vectors of the two networks to evaluate the reliability of the weak labels and
incorporates the reliability into model optimization to alleviate the negative
effect of noisy weak labels. Extensive experiments show the superior
performance of LNMT.
- Abstract(参考訳): フェイクニュースは前例のない速さで広がり、全世界のオーディエンスにリーチし、ユーザーやコミュニティに大きなリスクをもたらす。
既存の偽ニュース検出アルゴリズムのほとんどは、大量の手動ラベル付きデータに基づいて教師付きトレーニングモデルを構築することに焦点を当てている。
そこで本研究では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法(LNMT)を提案する。
lnmtは、ユーザのラベルのないニュースやフィードバックコメントを活用して、トレーニングデータの量を拡大し、洗練されたラベルを弱い監督として生成することで、モデルのトレーニングを促進する。
具体的には、LNMTは、ニュースコンテンツとコメント間の意味的相関と感情的関連に基づいて、ラベルのないサンプルに、初期弱いラベルを自動的に割り当てる。
また, 弱ラベルの雑音を抑制するため, lnmtはラベル伝搬とラベル信頼度推定を備えた平均教師フレームワークを構築した。
この枠組みは教師と学生ネットワークの間の弱いラベル類似度行列を測定し、異なる価値のある弱いラベル情報を伝播して弱いラベルを洗練させる。
また, 弱ラベルの信頼性を評価するために, 2つのネットワークの出力クラス推定ベクトル間の一貫性を活用し, モデル最適化に信頼性を取り入れ, 雑音弱ラベルの負の効果を緩和する。
広汎な実験はLNMTの優れた性能を示す。
関連論文リスト
- BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Learning from Noisy Labels with Decoupled Meta Label Purifier [33.87292143223425]
ディープニューラルネットワークをノイズラベルでトレーニングすることは、DNNが不正確なラベルを容易に記憶できるため、難しい。
本稿では,DMLPと呼ばれる新しい多段ラベル浄化器を提案する。
DMLPはラベル訂正プロセスをラベルなし表現学習と単純なメタラベル精製器に分離する。
論文 参考訳(メタデータ) (2023-02-14T03:39:30Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Data Consistency for Weakly Supervised Learning [15.365232702938677]
機械学習モデルのトレーニングには、大量の人間が注釈付けしたデータを使用する。
本稿では、雑音ラベル、すなわち弱い信号を処理する新しい弱監督アルゴリズムを提案する。
本研究では,テキストと画像の分類作業において,最先端の弱い監督手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2022-02-08T16:48:19Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Denoising Multi-Source Weak Supervision for Neural Text Classification [9.099703420721701]
ラベル付きデータを用いずにニューラルネットワーク分類器を学習する問題について検討する。
ルールによって引き起こされる弱いラベルは、しばしばノイズが多く不完全であるため、この問題は困難である。
我々は,条件付きソフトアテンション機構を用いて音源の信頼性を推定し,規則付弱ラベルを集約することでラベルノイズを低減するラベルデノイザを設計する。
論文 参考訳(メタデータ) (2020-10-09T13:57:52Z) - Semi-supervised Relation Extraction via Incremental Meta Self-Training [56.633441255756075]
半教師付き関係抽出法は,限られたサンプルからの学習に加え,ラベルのないデータを活用することを目的としている。
既存の自己学習手法は段階的なドリフト問題に悩まされ、未ラベルデータにノイズのある擬似ラベルが組み込まれている。
本稿では,リレーショナルラベル生成ネットワークが,メタオブジェクトとしてリレーショナル分類ネットワークを成功・失敗に導くことによって,擬似ラベルの品質評価を生成するメタSREという手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T03:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。