論文の概要: Advanced Text Analytics -- Graph Neural Network for Fake News Detection in Social Media
- arxiv url: http://arxiv.org/abs/2502.16157v1
- Date: Sat, 22 Feb 2025 09:17:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:53:21.105626
- Title: Advanced Text Analytics -- Graph Neural Network for Fake News Detection in Social Media
- Title(参考訳): Advanced Text Analytics - ソーシャルメディアにおけるフェイクニュース検出のためのグラフニューラルネットワーク
- Authors: Anantram Patel, Vijay Kumar Sutrakar,
- Abstract要約: 本稿では,ATA-GNN(Advanced Text Analysis Graph Neural Network)を提案する。
ATA-GNNは、各トピックの典型的な単語を特定するために、革新的なトピックモデリング(クラスタリング)技術を採用している。
広く使われているベンチマークデータセットの大規模な評価は、ATA-GNNが現在のGNNベースのFND法の性能を上回ることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Traditional Graph Neural Network (GNN) approaches for fake news detection (FND) often depend on auxiliary, non-textual data such as user interaction histories or content dissemination patterns. However, these data sources are not always accessible, limiting the effectiveness and applicability of such methods. Additionally, existing models frequently struggle to capture the detailed and intricate relationships within textual information, reducing their overall accuracy. In order to address these challenges Advanced Text Analysis Graph Neural Network (ATA-GNN) is proposed in this paper. The proposed model is designed to operate solely on textual data. ATA-GNN employs innovative topic modelling (clustering) techniques to identify typical words for each topic, leveraging multiple clustering dimensions to achieve a comprehensive semantic understanding of the text. This multi-layered design enables the model to uncover intricate textual patterns while contextualizing them within a broader semantic framework, significantly enhancing its interpretative capabilities. Extensive evaluations on widely used benchmark datasets demonstrate that ATA-GNN surpasses the performance of current GNN-based FND methods. These findings validate the potential of integrating advanced text clustering within GNN architectures to achieve more reliable and text-focused detection solutions.
- Abstract(参考訳): 従来のグラフニューラルネットワーク(GNN)による偽ニュース検出(FND)のアプローチは、ユーザインタラクション履歴やコンテンツ拡散パターンなどの補助的な非テキストデータに依存することが多い。
しかし、これらのデータソースは必ずしもアクセス可能ではなく、そのような手法の有効性と適用性を制限している。
さらに、既存のモデルは、テキスト情報内の詳細で複雑な関係を捉えるのにしばしば苦労し、全体的な精度を低下させる。
本稿では,これらの課題に対処するために,高度なテキスト解析グラフニューラルネットワーク(ATA-GNN)を提案する。
提案モデルはテキストデータのみで動作するように設計されている。
ATA-GNNは、各トピックの典型的な単語を特定するために革新的なトピックモデリング(クラスタリング)技術を採用し、複数のクラスタリング次元を活用して、テキストの包括的な意味的理解を実現する。
この多層設計により、複雑なテクスチャパターンを発見できると同時に、より広いセマンティックフレームワーク内でコンテキスト化することが可能になり、解釈能力が大幅に向上する。
広く使われているベンチマークデータセットの大規模な評価は、ATA-GNNが現在のGNNベースのFND法の性能を上回ることを示している。
これらの結果は,GNNアーキテクチャに高度なテキストクラスタリングを統合することにより,より信頼性の高いテキスト中心の検出ソリューションを実現する可能性を検証している。
関連論文リスト
- Neighborhood-Order Learning Graph Attention Network for Fake News Detection [2.34863357088666]
偽ニュース検出のためのNelborhood-Order Learning Graph Attention Network (NOL-GAT) と呼ばれる新しいモデルを提案する。
このモデルにより、各層の各ノードはその最適近傍順序を独立に学習することができる。
モデルの性能を評価するために、様々なフェイクニュースデータセットで実験を行う。
論文 参考訳(メタデータ) (2025-02-10T18:51:57Z) - Verbalized Graph Representation Learning: A Fully Interpretable Graph Model Based on Large Language Models Throughout the Entire Process [8.820909397907274]
完全に解釈可能な言語グラフ表現学習法(VGRL)を提案する。
従来のグラフ機械学習モデルとは対照的に、VGRLはこのパラメータ空間をテキスト記述に制約する。
VGRLの有効性を実証的に評価するために,いくつかの研究を行った。
論文 参考訳(メタデータ) (2024-10-02T12:07:47Z) - XG-NID: Dual-Modality Network Intrusion Detection using a Heterogeneous Graph Neural Network and Large Language Model [5.298018090482744]
XG-NIDは異種グラフ構造内にフローレベルとパケットレベルのデータを融合する最初の方法である。
XG-NIDは、フローとパケットペイロードデータの複雑な関係を効果的に捉えながら、リアルタイムの推論を可能にする。
論文 参考訳(メタデータ) (2024-08-27T01:14:34Z) - Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - TeKo: Text-Rich Graph Neural Networks with External Knowledge [75.91477450060808]
外部知識を用いた新しいテキストリッチグラフニューラルネットワーク(TeKo)を提案する。
まず、高品質なエンティティを組み込んだフレキシブルな異種セマンティックネットワークを提案する。
次に、構造化三重項と非構造化実体記述という2種類の外部知識を導入する。
論文 参考訳(メタデータ) (2022-06-15T02:33:10Z) - Story Point Effort Estimation by Text Level Graph Neural Network [2.652428960991066]
グラフニューラルネットワークは、テキスト分類のための自然言語処理に適用された新しいアプローチである。
ストーリーポイントレベルの推定において,グラフニューラルネットワークによるテキスト分類の可能性と可能性を示す。
論文 参考訳(メタデータ) (2022-03-06T22:15:03Z) - DPGNN: Dual-Perception Graph Neural Network for Representation Learning [21.432960458513826]
グラフニューラルネットワーク(GNN)は近年注目を集め、グラフベースのタスクの多くで顕著なパフォーマンスを実現している。
既存のGNNの多くは、メッセージパッシングパラダイムに基づいて、1つのトポロジ空間内の近隣情報を反復的に集約している。
本稿では,マルチステップメッセージソースの特性,ノード固有のメッセージ出力,マルチスペースメッセージインタラクションに基づく新しいメッセージパッシングパラダイムを提案する。
論文 参考訳(メタデータ) (2021-10-15T05:47:26Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。