論文の概要: Challenges in Pre-Training Graph Neural Networks for Context-Based Fake
News Detection: An Evaluation of Current Strategies and Resource Limitations
- arxiv url: http://arxiv.org/abs/2402.18179v1
- Date: Wed, 28 Feb 2024 09:10:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:33:11.446753
- Title: Challenges in Pre-Training Graph Neural Networks for Context-Based Fake
News Detection: An Evaluation of Current Strategies and Resource Limitations
- Title(参考訳): 文脈に基づくフェイクニュース検出のための事前学習型グラフニューラルネットワークの課題:電流戦略と資源制限の評価
- Authors: Gregor Donabauer and Udo Kruschwitz
- Abstract要約: 本稿では,文脈に基づく偽ニュース検出の分野において,グラフニューラルネットワーク(GNN)の事前学習を適用することを提案する。
本実験は,グラフに基づく誤情報検出のための事前学習手法の評価を行う。
現在の大きな問題は、事前トレーニングに使用できる適切な大規模リソースの欠如である、と私たちは主張する。
- 参考スコア(独自算出の注目度): 1.9870554622325414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pre-training of neural networks has recently revolutionized the field of
Natural Language Processing (NLP) and has before demonstrated its effectiveness
in computer vision. At the same time, advances around the detection of fake
news were mainly driven by the context-based paradigm, where different types of
signals (e.g. from social media) form graph-like structures that hold
contextual information apart from the news article to classify. We propose to
merge these two developments by applying pre-training of Graph Neural Networks
(GNNs) in the domain of context-based fake news detection. Our experiments
provide an evaluation of different pre-training strategies for graph-based
misinformation detection and demonstrate that transfer learning does currently
not lead to significant improvements over training a model from scratch in the
domain. We argue that a major current issue is the lack of suitable large-scale
resources that can be used for pre-training.
- Abstract(参考訳): ニューラルネットワークの事前トレーニングは、最近自然言語処理(NLP)の分野に革命をもたらし、コンピュータビジョンにおいてその効果を実証した。
同時に、フェイクニュースの検出に関する進歩は主に、異なる種類のシグナル(ソーシャルメディアなど)が、ニュース記事とは別にコンテキスト情報を保持するグラフのような構造を形成して分類する、コンテキストベースのパラダイムによってもたらされた。
本稿では,グラフニューラルネットワーク(gnns)の事前学習を文脈に基づく偽ニュース検出の領域に適用することにより,これら2つの展開を統合することを提案する。
提案実験は,グラフに基づく誤情報検出のための事前学習戦略の評価を行い,転送学習がドメインのスクラッチからモデルをトレーニングする際の大幅な改善につながっていないことを示す。
現在の大きな問題は、事前トレーニングに使用できる適切な大規模リソースの欠如である、と私たちは主張する。
関連論文リスト
- Learning How to Propagate Messages in Graph Neural Networks [55.2083896686782]
本稿では,グラフニューラルネットワーク(GNN)におけるメッセージ伝搬戦略の学習問題について検討する。
本稿では,GNNパラメータの最大類似度推定を支援するために,最適伝搬ステップを潜時変数として導入する。
提案フレームワークは,GNNにおけるメッセージのパーソナライズおよび解釈可能な伝達戦略を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-10-01T15:09:59Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Story Point Effort Estimation by Text Level Graph Neural Network [2.652428960991066]
グラフニューラルネットワークは、テキスト分類のための自然言語処理に適用された新しいアプローチである。
ストーリーポイントレベルの推定において,グラフニューラルネットワークによるテキスト分類の可能性と可能性を示す。
論文 参考訳(メタデータ) (2022-03-06T22:15:03Z) - Embedding Graph Convolutional Networks in Recurrent Neural Networks for
Predictive Monitoring [0.0]
本稿では,グラフ畳み込みネットワークとリカレントニューラルネットワークに基づくアプローチを提案する。
実生活のイベントログを実験的に評価したところ、我々のアプローチはより一貫性があり、最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-17T17:30:30Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - How Neural Processes Improve Graph Link Prediction [35.652234989200956]
リンク予測のためのグラフニューラルネットワークを用いたメタラーニング手法:グラフニューラルネットワークのためのニューラルプロセス(NPGNN)を提案する。
NPGNNは、トランスダクティブな学習タスクとインダクティブな学習タスクの両方を実行し、小さなサブグラフでトレーニングした後、大きな新しいグラフのパターンに適応することができる。
論文 参考訳(メタデータ) (2021-09-30T07:35:13Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。