論文の概要: Alternately Optimized Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2206.03638v4
- Date: Wed, 19 Jul 2023 06:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 18:21:18.492048
- Title: Alternately Optimized Graph Neural Networks
- Title(参考訳): 交互に最適化されたグラフニューラルネットワーク
- Authors: Haoyu Han, Xiaorui Liu, Haitao Mao, MohamadAli Torkamani, Feng Shi,
Victor Lee, Jiliang Tang
- Abstract要約: グラフ上の半教師付き学習のための新しい最適化フレームワークを提案する。
提案手法は交互最適化アルゴリズムにより便利に解けるので,効率は大幅に向上する。
- 参考スコア(独自算出の注目度): 33.98939289745346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have greatly advanced the semi-supervised node
classification task on graphs. The majority of existing GNNs are trained in an
end-to-end manner that can be viewed as tackling a bi-level optimization
problem. This process is often inefficient in computation and memory usage. In
this work, we propose a new optimization framework for semi-supervised learning
on graphs. The proposed framework can be conveniently solved by the alternating
optimization algorithms, resulting in significantly improved efficiency.
Extensive experiments demonstrate that the proposed method can achieve
comparable or better performance with state-of-the-art baselines while it has
significantly better computation and memory efficiency.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類タスクを大幅に進歩させた。
既存のGNNの大半はエンドツーエンドでトレーニングされており、これは双方向最適化問題に対処すると見なすことができる。
このプロセスは、しばしば計算やメモリ使用において非効率である。
本稿では,グラフ上の半教師あり学習のための新しい最適化フレームワークを提案する。
提案手法は交互最適化アルゴリズムにより便利に解けるので,効率は大幅に向上する。
大規模な実験により,提案手法は最先端のベースラインで同等あるいは優れた性能を達成できる一方で,計算効率とメモリ効率が著しく向上することを示した。
関連論文リスト
- Efficient and Effective Implicit Dynamic Graph Neural Network [42.49148111696576]
Indicit Dynamic Graph Neural Network (IDGNN) は動的グラフのための新しい暗黙的ニューラルネットワークである。
IDGNNの鍵となる特徴は、それが実証的に良好である、すなわち、固定点表現を持つことが理論的に保証されていることである。
論文 参考訳(メタデータ) (2024-06-25T19:07:21Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - GPN: A Joint Structural Learning Framework for Graph Neural Networks [36.38529113603987]
グラフ構造と下流タスクを同時に学習するGNNベースの共同学習フレームワークを提案する。
本手法は,この課題を解決するためのGNNベースの二段階最適化フレームワークである。
論文 参考訳(メタデータ) (2022-05-12T09:06:04Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Recurrent Graph Neural Network Algorithm for Unsupervised Network
Community Detection [0.0]
本稿では,モジュール性最適化による非教師付きネットワークコミュニティ検出のための再帰グラフニューラルネットワークアルゴリズムの新しい変種を提案する。
新しいアルゴリズムのパフォーマンスは、人気があり高速なLouvain法と、最近著者が提案したより効率的だが遅いComboアルゴリズムと比較される。
論文 参考訳(メタデータ) (2021-03-03T16:50:50Z) - Optimization of Graph Neural Networks with Natural Gradient Descent [1.3477333339913569]
グラフに基づく半教師付き学習のための最適化アルゴリズムを,最適化プロセスにおける自然な勾配情報を用いて開発する。
我々の知る限りでは、グラフニューラルネットワークの最適化に自然勾配を利用した最初の研究である。
論文 参考訳(メタデータ) (2020-08-21T18:00:53Z) - Gumbel-softmax-based Optimization: A Simple General Framework for
Optimization Problems on Graphs [5.486093983007419]
本稿では,ディープラーニングフレームワークによって強化された高度な自動微分技術に基づく,シンプルで高速で汎用的なアルゴリズムフレームワークを提案する。
高品質なソリューションは、従来のアプローチに比べてはるかに少ない時間で得られる。
論文 参考訳(メタデータ) (2020-04-14T14:11:00Z) - Gradient Centralization: A New Optimization Technique for Deep Neural
Networks [74.935141515523]
勾配集中(GC)は、勾配ベクトルをゼロ平均とする集中化によって、勾配を直接操作する。
GCは、制約された損失関数を持つ射影勾配降下法とみなすことができる。
GCは実装が非常に簡単で、1行のコードだけで既存のグラデーションベースのDNNに簡単に組み込める。
論文 参考訳(メタデータ) (2020-04-03T10:25:00Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。