論文の概要: Grain: Improving Data Efficiency of Graph Neural Networks via
Diversified Influence Maximization
- arxiv url: http://arxiv.org/abs/2108.00219v1
- Date: Sat, 31 Jul 2021 11:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:36:08.044606
- Title: Grain: Improving Data Efficiency of Graph Neural Networks via
Diversified Influence Maximization
- Title(参考訳): grain: 多様化した影響最大化によるグラフニューラルネットワークのデータ効率向上
- Authors: Wentao Zhang, Zhi Yang, Yexin Wang, Yu Shen, Yang Li, Liang Wang, Bin
Cui
- Abstract要約: グラフニューラルネットワーク(GNN)は、既存のデータ選択方法が設計したモデルを越えている。
我々は、GNNにおけるデータ選択と社会的影響を結びつけることによって、新しい視点を開放する効率的なフレームワークであるGrainを紹介する。
公開データセットに関する実証研究により、GrainはGNNのデータ選択の性能と効率の両方を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 24.25156825467544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data selection methods, such as active learning and core-set selection, are
useful tools for improving the data efficiency of deep learning models on
large-scale datasets. However, recent deep learning models have moved forward
from independent and identically distributed data to graph-structured data,
such as social networks, e-commerce user-item graphs, and knowledge graphs.
This evolution has led to the emergence of Graph Neural Networks (GNNs) that go
beyond the models existing data selection methods are designed for. Therefore,
we present Grain, an efficient framework that opens up a new perspective
through connecting data selection in GNNs with social influence maximization.
By exploiting the common patterns of GNNs, Grain introduces a novel feature
propagation concept, a diversified influence maximization objective with novel
influence and diversity functions, and a greedy algorithm with an approximation
guarantee into a unified framework. Empirical studies on public datasets
demonstrate that Grain significantly improves both the performance and
efficiency of data selection (including active learning and core-set selection)
for GNNs. To the best of our knowledge, this is the first attempt to bridge two
largely parallel threads of research, data selection, and social influence
maximization, in the setting of GNNs, paving new ways for improving data
efficiency.
- Abstract(参考訳): アクティブラーニングやコアセット選択といったデータ選択手法は、大規模データセットにおけるディープラーニングモデルのデータ効率を改善する上で有用なツールである。
しかし、近年のディープラーニングモデルは、独立した分散データから、ソーシャルネットワーク、eコマースユーザ・イテムグラフ、ナレッジグラフといったグラフ構造化データへと前進している。
この進化は、既存のデータ選択方法が設計されているモデルを超えたグラフニューラルネットワーク(GNN)の出現につながった。
そこで,gnnのデータ選択と社会的影響の最大化を結びつけることで,新たな視点を開く効率的なフレームワークであるgrainを提案する。
gnnの共通パターンを利用することで、grainは、新しい特徴伝播の概念、新しい影響と多様性関数による多様化した影響最大化目的、および近似保証を持つ欲望アルゴリズムを統一フレームワークに導入する。
公開データセットに関する実証研究により、GrainはGNNのデータ選択(アクティブラーニングとコアセットの選択を含む)の性能と効率を著しく改善することが示された。
我々の知る限りでは、これは2つのほぼ平行な研究スレッド、データ選択、社会的影響の最大化を、GNNの設定において橋渡しする最初の試みであり、データ効率を改善するための新しい方法を生み出している。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Ensemble Learning for Graph Neural Networks [28.3650473174488]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための様々な分野で成功している。
本稿では,GNNの性能とロバスト性向上のためのアンサンブル学習手法の適用について検討する。
論文 参考訳(メタデータ) (2023-10-22T03:55:13Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Revisiting Embeddings for Graph Neural Networks [0.0]
画像とテキストの両方に対して異なる埋め込み抽出手法を探索する。
埋め込みの選択は異なるGNNアーキテクチャの性能に偏っていることがわかった。
本稿では,グラフ接続型ネットワーク(GraNet)層を提案する。
論文 参考訳(メタデータ) (2022-09-19T20:37:55Z) - Deep Reinforcement Learning of Graph Matching [63.469961545293756]
ノードとペアの制約下でのグラフマッチング(GM)は、最適化からコンピュータビジョンまでの領域におけるビルディングブロックである。
GMのための強化学習ソルバを提案する。
rgmはペアワイズグラフ間のノード対応を求める。
本手法は,フロントエンドの特徴抽出と親和性関数学習に焦点をあてるという意味において,従来のディープグラフマッチングモデルと異なる。
論文 参考訳(メタデータ) (2020-12-16T13:48:48Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。