論文の概要: E2EG: End-to-End Node Classification Using Graph Topology and Text-based
Node Attributes
- arxiv url: http://arxiv.org/abs/2208.04609v1
- Date: Tue, 9 Aug 2022 09:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 13:13:27.466493
- Title: E2EG: End-to-End Node Classification Using Graph Topology and Text-based
Node Attributes
- Title(参考訳): E2EG:グラフトポロジとテキストベースのノード属性を用いたエンドツーエンドノード分類
- Authors: Tu Anh Dinh, Jeroen den Boef, Joran Cornelisse, Paul Groth
- Abstract要約: E2EG(End-to-End-GIANT)と呼ばれるGIANTに基づくエンドツーエンドノード分類モデルを開発する。
ogbn-arxivおよびogbn-productsデータセットのGIANT+MLPベースラインと比較して,本モデルではトランスダクティブ設定において若干精度が向上している。
我々のモデルは誘導的設定にも適用でき、GIANT+MLPを最大2.23%上回っている。
- 参考スコア(独自算出の注目度): 1.8013473294846991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node classification utilizing text-based node attributes has many real-world
applications, ranging from prediction of paper topics in academic citation
graphs to classification of user characteristics in social media networks.
State-of-the-art node classification frameworks, such as GIANT, use a two-stage
pipeline: first embedding the text attributes of graph nodes then feeding the
resulting embeddings into a node classification model. In this paper, we
eliminate these two stages and instead develop an end-to-end node
classification model that builds upon GIANT, called End-to-End-GIANT (E2EG).
The tandem utilization of a main and an auxiliary classification objectives in
our approach results in a more robust model, thus enabling the BERT backbone to
be switched out for a distilled encoder with a 25% - 40% reduction in the
number of parameters. Moreover, the end-to-end nature of the model increases
ease of use, as it avoids the need of chaining multiple models for node
classification. Compared to a GIANT+MLP baseline on the ogbn-arxiv and
ogbn-products datasets, our model is able to obtain slightly better accuracy in
the transductive setting (+0.5%), while reducing model training time by up to
40%. Our model is also applicable in the inductive setting, outperforming
GIANT+MLP by up to +2.23%.
- Abstract(参考訳): テキストベースのノード属性を用いたノード分類は、学術用引用グラフにおける論文トピックの予測から、ソーシャルメディアネットワークにおけるユーザ特性の分類まで、多くの現実の応用がある。
GIANTのような最先端のノード分類フレームワークでは、まずグラフノードのテキスト属性を埋め込み、その結果の埋め込みをノード分類モデルに供給する、2段階のパイプラインを使用する。
本稿では,これら2つの段階を排除し,その代わりに,エンド・ツー・エンド・GIANT(End-to-End-GIANT, E2EG)と呼ばれるGIANTに基づくエンドツーエンドノード分類モデルを開発する。
本手法における主目的と補助分類目的のタンデム利用により,より頑健なモデルが得られるため,25%から40%のパラメータ削減が可能な蒸留エンコーダでは,bertバックボーンを切り替えることができる。
さらに、ノード分類のために複数のモデルを連鎖する必要がなくなるため、モデルのエンドツーエンド性は使いやすさを増す。
ogbn-arxivおよびogbn-productsデータセットのGIANT+MLPベースラインと比較すると,モデルトレーニング時間を最大40%短縮しつつ,トランスダクティブ設定(+0.5%)において若干精度が向上する。
我々のモデルは誘導的設定にも適用でき、GIANT+MLPを最大2.23%上回る。
関連論文リスト
- You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - GraphViz2Vec: A Structure-aware Feature Generation Model to Improve
Classification in GNNs [2.0823678201707034]
GNNはノード分類やリンク予測など,さまざまなタスクの解決に広く利用されている。
本稿では,ノードの近傍構造情報を抽出する特徴抽出手法GraphViz2Vecを提案する。
これらの初期埋め込みは、様々な分類タスクにおいて、既存のモデルが最先端の結果を達成するのに役立つ。
論文 参考訳(メタデータ) (2024-01-30T17:11:04Z) - On Exploring Node-feature and Graph-structure Diversities for Node Drop
Graph Pooling [86.65151066870739]
現在のノードドロッププーリング法は、ノードの特徴やグラフ構造の観点からグラフの多様性を無視し、結果としてグラフレベル以下の表現をもたらす。
そこで本稿では,textiti.fltextbfIpscore と textbfDropscore の2つの操作を持つ textbfMulti スコア空間からなる MID を新たに提案する。
具体的には、多次元スコア空間は、複数の基準を通してノードの重要さを描いており、フリップスコアは異種ノードの維持を奨励している。
論文 参考訳(メタデータ) (2023-06-22T08:02:01Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Data Augmentation for Graph Convolutional Network on Semi-Supervised
Classification [6.619370466850894]
グラフ畳み込みネットワーク(GCN)におけるグラフデータ拡張の問題について検討する。
具体的には、元の特徴に基づいてコサイン類似性に基づくクロスオペレーションを行い、新しいノード属性を含む新しいグラフ機能を作成する。
また,これらのGCNによって符号化された隠れノード埋め込みを最終ノード埋め込みに重み付けした注意統合モデルを提案する。
論文 参考訳(メタデータ) (2021-06-16T15:13:51Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z) - Unifying Graph Convolutional Neural Networks and Label Propagation [73.82013612939507]
LPAとGCNの関係を特徴・ラベルの平滑化と特徴・ラベルの影響の2点の観点から検討した。
理論解析に基づいて,ノード分類のためのGCNとLCAを統一するエンドツーエンドモデルを提案する。
我々のモデルは、既存の特徴に基づく注目モデルよりもタスク指向のノードラベルに基づく学習注意重みと見なすこともできる。
論文 参考訳(メタデータ) (2020-02-17T03:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。