論文の概要: TAGFN: A Text-Attributed Graph Dataset for Fake News Detection in the Age of LLMs
- arxiv url: http://arxiv.org/abs/2511.21624v1
- Date: Wed, 26 Nov 2025 17:49:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.22901
- Title: TAGFN: A Text-Attributed Graph Dataset for Fake News Detection in the Age of LLMs
- Title(参考訳): TAGFN:LLM時代のフェイクニュース検出のためのテキスト分散グラフデータセット
- Authors: Kay Liu, Yuwei Han, Haoyan Xu, Henry Peng Zou, Yue Zhao, Philip S. Yu,
- Abstract要約: TAGFNは、外れ値検出のための大規模で実世界のテキスト属性グラフデータセットである。
従来のLLMおよびLLMに基づくグラフ外乱検出手法の厳密な評価を可能にする。
TAGFNはコミュニティにとって貴重なリソースであり、堅牢なグラフベースの外れ値検出と信頼できるAIの進歩を促進する。
- 参考スコア(独自算出の注目度): 44.05938296120925
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have recently revolutionized machine learning on text-attributed graphs, but the application of LLMs to graph outlier detection, particularly in the context of fake news detection, remains significantly underexplored. One of the key challenges is the scarcity of large-scale, realistic, and well-annotated datasets that can serve as reliable benchmarks for outlier detection. To bridge this gap, we introduce TAGFN, a large-scale, real-world text-attributed graph dataset for outlier detection, specifically fake news detection. TAGFN enables rigorous evaluation of both traditional and LLM-based graph outlier detection methods. Furthermore, it facilitates the development of misinformation detection capabilities in LLMs through fine-tuning. We anticipate that TAGFN will be a valuable resource for the community, fostering progress in robust graph-based outlier detection and trustworthy AI. The dataset is publicly available at https://huggingface.co/datasets/kayzliu/TAGFN and our code is available at https://github.com/kayzliu/tagfn.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、テキスト分散グラフ上の機械学習に革命をもたらしたが、特にフェイクニュース検出の文脈において、グラフの外れ値検出にLLMを適用することは、依然として明らかに過小評価されている。
重要な課題の1つは、大規模で現実的で、注釈の付いたデータセットが不足していることである。
このギャップを埋めるために,大規模なリアルタイムテキスト分散グラフデータセットであるTAGFNを導入する。
TAGFN は従来の LLM および LLM ベースのグラフアウトレイラ検出手法の厳密な評価を可能にする。
さらに、微調整によるLCMにおける誤情報検出機能の開発を容易にする。
我々は、TAGFNがコミュニティにとって貴重なリソースになり、堅牢なグラフベースの外れ値検出と信頼できるAIの進歩を促進することを期待する。
データセットはhttps://huggingface.co/datasets/kayzliu/TAGFNで公開されています。
関連論文リスト
- Few-Shot Graph Out-of-Distribution Detection with LLMs [34.42512005781724]
本稿では,大規模言語モデル (LLM) とグラフニューラルネットワーク (GNN) の長所を組み合わせたフレームワークを提案する。
LLM-GOODは人間のアノテーションのコストを大幅に削減し、ID分類精度とOOD検出性能の両方において最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-03-28T02:37:18Z) - An exploration of features to improve the generalisability of fake news detection models [0.0]
既存のNLPおよび教師付き機械学習メソッドは、クロスバリデーションの下ではうまく機能するが、データセットをまたいだ一般化に苦慮する。
この問題は、記事がパブリッシャに基づいてラベル付けされる、粗いラベル付きトレーニングデータに起因している。
本研究は, 粗いラベル付きデータから意味のある特徴を抽出し, 実世界のロバスト性を向上させることを実証した。
論文 参考訳(メタデータ) (2025-02-27T17:26:56Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [70.03602551880526]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore [51.65730053591696]
我々は,人文テキストがLLM生成テキストよりも文法的誤りを多く含んでいるという観察に基づく,シンプルで効果的なブラックボックスゼロショット検出手法を提案する。
実験結果から,本手法はゼロショット法や教師あり手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-07T12:57:01Z) - LOSS-GAT: Label Propagation and One-Class Semi-Supervised Graph
Attention Network for Fake News Detection [2.6396287656676725]
Loss-GATは、フェイクニュース検出のための半教師付き一級アプローチである。
我々は、ニュースを関心(フェイク)と非関心(リアル)の2つのグループに分類するために、2段階のラベル伝搬アルゴリズムを用いる。
論文 参考訳(メタデータ) (2024-02-13T12:02:37Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - Efficient End-to-end Language Model Fine-tuning on Graphs [21.23522552579571]
Text-Attributed Graphs (TAGs) からの学習は、その幅広い現実世界のアプリケーションのために大きな注目を集めている。
我々は,TAG上での言語モデルのエンドツーエンドな微調整のための,新規かつ効率的なアプローチであるLEAdingを紹介する。
提案手法は,Ogbn-arxiv のリーダーボード上で,最先端のSOTA(State-of-the-art)を達成し,優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-07T22:35:16Z) - Exploring the Potential of Large Language Models (LLMs) in Learning on
Graphs [59.74814230246034]
大規模言語モデル(LLM)は、広範な共通知識と強力な意味理解能力を持つことが証明されている。
LLMs-as-EnhancersとLLMs-as-Predictorsの2つのパイプラインについて検討する。
論文 参考訳(メタデータ) (2023-07-07T05:31:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。