論文の概要: Synergizing LLMs with Global Label Propagation for Multimodal Fake News Detection
- arxiv url: http://arxiv.org/abs/2506.00488v1
- Date: Sat, 31 May 2025 09:50:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.646083
- Title: Synergizing LLMs with Global Label Propagation for Multimodal Fake News Detection
- Title(参考訳): マルチモーダルフェイクニュース検出のためのグローバルラベル伝搬を用いたLLMの同期化
- Authors: Shuguo Hu, Jun Hu, Huaiwen Zhang,
- Abstract要約: 大規模言語モデル(LLM)は、擬似ラベルを予測することによって、マルチモーダルな偽ニュースの検出を支援する。
GLPN-LLMはラベル伝搬技術を介してLLM機能を統合する。
Maskベースのメカニズムは、トレーニング中にラベルの漏洩を防止するように設計されている。
- 参考スコア(独自算出の注目度): 6.83044674430082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) can assist multimodal fake news detection by predicting pseudo labels. However, LLM-generated pseudo labels alone demonstrate poor performance compared to traditional detection methods, making their effective integration non-trivial. In this paper, we propose Global Label Propagation Network with LLM-based Pseudo Labeling (GLPN-LLM) for multimodal fake news detection, which integrates LLM capabilities via label propagation techniques. The global label propagation can utilize LLM-generated pseudo labels, enhancing prediction accuracy by propagating label information among all samples. For label propagation, a mask-based mechanism is designed to prevent label leakage during training by ensuring that training nodes do not propagate their own labels back to themselves. Experimental results on benchmark datasets show that by synergizing LLMs with label propagation, our model achieves superior performance over state-of-the-art baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)は、擬似ラベルを予測することによって、マルチモーダルな偽ニュースの検出を支援する。
しかし、LCM生成した擬似ラベルだけでは従来の検出方法と比べて性能が劣っているため、その効果的な統合は容易ではない。
本稿では,LLM をベースとした Pseudo Labeling (GLPN-LLM) を用いたグローバルラベル伝搬ネットワークを提案する。
グローバルラベル伝搬は、LLM生成擬似ラベルを利用することができ、全てのサンプル間でラベル情報を伝搬することにより、予測精度を高めることができる。
ラベルの伝搬には、トレーニングノードがラベルを自分自身に伝播しないようにすることで、トレーニング中のラベルの漏洩を防止するマスクベースのメカニズムが設計されている。
評価実験の結果,ラベルの伝搬とLLMの相乗化により,最先端のベースラインよりも優れた性能が得られた。
関連論文リスト
- Calibrating Pre-trained Language Classifiers on LLM-generated Noisy Labels via Iterative Refinement [8.804897656598051]
そこで我々はSiDyP: Simplex Label Diffusion with Dynamic Priorを提案する。
我々のフレームワークは、ゼロショットと少数ショットのLLM生成したノイズラベルデータセットをそれぞれ平均7.21%と7.30%で微調整したBERT分類器の性能を向上させることができる。
論文 参考訳(メタデータ) (2025-05-26T08:31:55Z) - Bayesian-guided Label Mapping for Visual Reprogramming [20.27639343292564]
1対1のマッピングは、事前訓練されたラベルと下流のラベルの間の複雑な関係を見落としてしまう可能性がある。
この観測により,ベイズ誘導ラベルマッピング法(BLM)を提案する。
事前訓練されたビジョンモデル(ResNeXtなど)とビジョン言語モデル(CLIPなど)の両方で実施された実験は、既存のラベルマッピング手法よりもBLMの優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-31T15:20:43Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Pseudo-Labeling Based Practical Semi-Supervised Meta-Training for Few-Shot Learning [93.63638405586354]
擬似ラベルベースメタラーニング(PLML)という,シンプルで効果的なメタトレーニングフレームワークを提案する。
まず、一般的な半教師付き学習(SSL)を用いて分類器を訓練し、ラベルなしデータの擬似ラベルを得る。
ラベル付きおよび擬似ラベル付きデータから数ショットのタスクを構築し、特徴の平滑化と雑音抑圧を伴う新しい微調整法を設計する。
論文 参考訳(メタデータ) (2022-07-14T10:53:53Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Partial Multi-label Learning with Label and Feature Collaboration [21.294791188490056]
部分的マルチラベル学習(PML)は、各トレーニングインスタンスに候補ラベルのセットをアノテートするシナリオをモデル化する。
PMLデータに対する信頼性のある予測器を実現するため,PML-LFC (Partial Multi-label Learning with Label and Feature Collaboration)を提案する。
PML-LFCは、ラベルと特徴空間の両方から類似性を用いて、各インスタンスの関連ラベルの信頼性値を推定する。
論文 参考訳(メタデータ) (2020-03-17T08:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。