論文の概要: Cold Brew: Distilling Graph Node Representations with Incomplete or
Missing Neighborhoods
- arxiv url: http://arxiv.org/abs/2111.04840v1
- Date: Mon, 8 Nov 2021 21:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:02:35.828504
- Title: Cold Brew: Distilling Graph Node Representations with Incomplete or
Missing Neighborhoods
- Title(参考訳): コールドブリュー:不完全または欠損した近傍のグラフノード表現
- Authors: Wenqing Zheng, Edward W Huang, Nikhil Rao, Sumeet Katariya, Zhangyang
Wang and Karthik Subbian
- Abstract要約: 本稿では,SCS(Strict Cold Start)問題に対する誘導型GNNの有効性を検討するために,FCR(Feature-Contribution ratio)を導入する。
実験により,FCRはグラフデータセットの様々な成分の寄与を阻害し,コールドブリューの優れた性能を示す。
- 参考スコア(独自算出の注目度): 69.13371028670153
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved state of the art performance in
node classification, regression, and recommendation tasks. GNNs work well when
high-quality and rich connectivity structure is available. However, this
requirement is not satisfied in many real world graphs where the node degrees
have power-law distributions as many nodes have either fewer or noisy
connections. The extreme case of this situation is a node may have no neighbors
at all, called Strict Cold Start (SCS) scenario. This forces the prediction
models to rely completely on the node's input features. We propose Cold Brew to
address the SCS and noisy neighbor setting compared to pointwise and other
graph-based models via a distillation approach. We introduce
feature-contribution ratio (FCR), a metric to study the viability of using
inductive GNNs to solve the SCS problem and to select the best architecture for
SCS generalization. We experimentally show FCR disentangles the contributions
of various components of graph datasets and demonstrate the superior
performance of Cold Brew on several public benchmarks and proprietary
e-commerce datasets. The source code for our approach is available at:
https://github.com/amazon-research/gnn-tail-generalization.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類、回帰、レコメンデーションタスクにおける技術パフォーマンスの状態を達成している。
高品質でリッチな接続構造が利用できる場合、GNNはうまく機能する。
しかし、ノードの次数がパワーロー分布を持つ多くの実世界グラフでは、多くのノードがより少ない、またはノイズの多い接続を持つため、この要件は満たされない。
この状況の極端な場合、ノードにはStrict Cold Start (SCS) シナリオと呼ばれる隣人がまったく存在しない可能性がある。
これにより、予測モデルはノードの入力機能に完全に依存することになります。
本研究では,scsと隣接環境のノイズに対応するコールドブリューについて,蒸留法を用いてポイントワイズや他のグラフモデルと比較検討する。
本稿では,SCS問題を解くための誘導型GNNの有効性と,SCSの一般化に最適なアーキテクチャを選択するための指標であるFCR(Feature-Contribution ratio)を紹介する。
FCRはグラフデータセットの様々なコンポーネントのコントリビューションを阻害し、いくつかの公開ベンチマークとプロプライエタリなeコマースデータセットにおいてCold Brewの優れたパフォーマンスを示す。
私たちのアプローチのソースコードは、https://github.com/amazon-research/gnn-tail-generalizationで入手できます。
関連論文リスト
- G-SPARC: SPectral ARchitectures tackling the Cold-start problem in Graph learning [3.870455775654713]
コールドスタートノードに対処する新しいフレームワークであるG-SPARCを提案する。
グラフ表現からスペクトル表現への移行というキーアイデアを利用することで、我々のアプローチはコールドスタートノードに一般化できる。
本手法は,ノード分類,ノードクラスタリング,リンク予測など,コールドスタートノードの既存モデルよりも優れている。
論文 参考訳(メタデータ) (2024-11-03T11:39:09Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - LSGNN: Towards General Graph Neural Network in Node Classification by
Local Similarity [59.41119013018377]
本稿では,ローカル類似性(LocalSim)を用いて,プラグイン・アンド・プレイモジュールとしても機能するノードレベルの重み付き融合を学習する。
そこで本研究では,より情報性の高いマルチホップ情報を抽出するための,新規かつ効率的な初期残留差分接続(IRDC)を提案する。
提案手法,すなわちローカル類似グラフニューラルネットワーク(LSGNN)は,ホモ親和性グラフとヘテロ親和性グラフの両方において,同等あるいは優れた最先端性能を提供できる。
論文 参考訳(メタデータ) (2023-05-07T09:06:11Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Inferential SIR-GN: Scalable Graph Representation Learning [0.4699313647907615]
グラフ表現学習法は、ネットワーク内のノードの数値ベクトル表現を生成する。
本研究では,ランダムグラフ上で事前学習されたモデルであるInferential SIR-GNを提案し,ノード表現を高速に計算する。
このモデルではノードの構造的役割情報を捉えることができ、ノードやグラフの分類タスクにおいて、目に見えないネットワーク上で優れた性能を示すことができる。
論文 参考訳(メタデータ) (2021-11-08T20:56:37Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。