論文の概要: COOL: Comprehensive Knowledge Enhanced Prompt Learning for Domain Adaptive Few-shot Fake News Detection
- arxiv url: http://arxiv.org/abs/2406.10870v1
- Date: Sun, 16 Jun 2024 09:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 20:21:59.037574
- Title: COOL: Comprehensive Knowledge Enhanced Prompt Learning for Domain Adaptive Few-shot Fake News Detection
- Title(参考訳): COOL:ドメイン適応型ファウショットフェイクニュース検出のための総合的知識強化型プロンプト学習
- Authors: Yi Ouyang, Peng Wu, Li Pan,
- Abstract要約: ドメイン適応型小ショットFND.Owlのための包括的knedge拡張PrOmpt学習法であるCOOLを提案する。
具体的には,外部からのニュースに正あるいは負の相関を持つ構造化知識と非構造化知識の両方を抽出する包括的知識抽出モジュールを提案する。
- 参考スコア(独自算出の注目度): 16.478355864072814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most Fake News Detection (FND) methods often struggle with data scarcity for emerging news domain. Recently, prompt learning based on Pre-trained Language Models (PLM) has emerged as a promising approach in domain adaptive few-shot learning, since it greatly reduces the need for labeled data by bridging the gap between pre-training and downstream task. Furthermore, external knowledge is also helpful in verifying emerging news, as emerging news often involves timely knowledge that may not be contained in the PLM's outdated prior knowledge. To this end, we propose COOL, a Comprehensive knOwledge enhanced prOmpt Learning method for domain adaptive few-shot FND. Specifically, we propose a comprehensive knowledge extraction module to extract both structured and unstructured knowledge that are positively or negatively correlated with news from external sources, and adopt an adversarial contrastive enhanced hybrid prompt learning strategy to model the domain-invariant news-knowledge interaction pattern for FND. Experimental results demonstrate the superiority of COOL over various state-of-the-arts.
- Abstract(参考訳): 多くのフェイクニュース検出(FND)手法は、新しいニュースドメインでデータ不足に悩むことが多い。
近年,プレトレーニング言語モデル(PLM)に基づく即時学習は,事前学習と下流タスクのギャップを埋めることによってラベル付きデータの必要性を大幅に低減するため,ドメイン適応型少数ショット学習において有望なアプローチとして現れている。
さらに、新たなニュースは、PLMの時代遅れの以前の知識に含まれていないかもしれないタイムリーな知識を含むことが多いため、外部知識は、新興ニュースの検証にも有用である。
そこで本研究では,ドメイン適応型小ショットFNDのための包括的knOwledge拡張PrOmpt学習法であるCOOLを提案する。
具体的には、外部ソースからニュースと正あるいは負の相関関係を持つ構造化知識と非構造化知識の両方を抽出する包括的知識抽出モジュールを提案する。
実験結果から, 各種技術よりもCOOLが優れていることが示された。
関連論文リスト
- Preserving Generalization of Language models in Few-shot Continual Relation Extraction [34.68364639170838]
FCRE(Few-shot Continual Relations extract)は、新たな研究分野である。
本稿では,よく捨てられる言語モデルヘッドを活用する新しい手法を提案する。
提案手法の有効性を実証し,今後の研究に有用な知見を提供する。
論文 参考訳(メタデータ) (2024-10-01T02:22:34Z) - Detect, Investigate, Judge and Determine: A Novel LLM-based Framework for Few-shot Fake News Detection [47.01850264003063]
Few-Shot Fake News Detectionは、極めて低リソースのシナリオにおいて、不正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
そこで本稿では,大規模言語モデルの拡張を目的としたDual-perspective Augmented Fake News Detectionモデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Injecting New Knowledge into Large Language Models via Supervised Fine-Tuning [13.371405067535814]
本稿では,Large Language Models(LLMs)における知識注入手法としてのスーパーバイザードファインタニング(SFT)の有効性について検討する。
さまざまなデータセット生成戦略 – トークンベースとファクトベースのスケーリング – を比較して,モデルが新たな情報を学ぶためのトレーニングデータを生成します。
その結果、ドメイン外知識に関連するQ&Aタスクのパフォーマンスが大幅に向上した。
論文 参考訳(メタデータ) (2024-03-30T01:56:07Z) - Forgetting before Learning: Utilizing Parametric Arithmetic for
Knowledge Updating in Large Language Models [53.52344131257681]
本稿では,F-Learningと呼ばれるファインチューニングのための新しいパラダイムを提案する。これはパラメトリック算術を用いて,古い知識の忘れと新しい知識の学習を容易にする。
2つの公開データセットによる実験結果から、提案したFラーニングは、完全な微調整とLoRA微調整の両方の知識更新性能を向上させることが明らかに示されている。
論文 参考訳(メタデータ) (2023-11-14T09:12:40Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Bridged-GNN: Knowledge Bridge Learning for Effective Knowledge Transfer [65.42096702428347]
グラフニューラルネットワーク(GNN)は、隣接するノードから情報を集約する。
知識ブリッジ学習(KBL)は、対象ドメインに対する知識強化後部分布を学習する。
Bridged-GNNには、Bridged-Graphを構築するためのAdaptive Knowledge Retrievalモジュールと、Graph Knowledge Transferモジュールが含まれている。
論文 参考訳(メタデータ) (2023-08-18T12:14:51Z) - Plug-and-Play Knowledge Injection for Pre-trained Language Models [116.37916535076478]
外部知識を注入することで、様々な下流NLPタスクにおける事前学習言語モデル(PLM)の性能を向上させることができる。
下流タスクのための新しい知識注入方法や知識ベースを展開するには、大規模な再訓練が必要である。
既存の下流モデルを用いて知識注入の柔軟性と効率を改善する方法について検討する。
論文 参考訳(メタデータ) (2023-05-28T10:58:00Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Domain Adaptive Fake News Detection via Reinforcement Learning [34.95213747705498]
本稿では、偽ニュースを検出するためのREAL-FNDと呼ばれる新しい強化学習モデルを提案する。
実世界のデータセットの実験では、提案モデルの有効性が示されている。
論文 参考訳(メタデータ) (2022-02-16T16:05:37Z) - Ontology-enhanced Prompt-tuning for Few-shot Learning [41.51144427728086]
少ないショットラーニングは、限られたサンプル数に基づいて予測を行うことを目的としている。
知識グラフやオントロジーライブラリなどの構造化データは、様々なタスクにおける数ショット設定の恩恵を受けるために利用されてきた。
論文 参考訳(メタデータ) (2022-01-27T05:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。