論文の概要: Deep Constraint-based Propagation in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2005.02392v6
- Date: Wed, 1 Sep 2021 14:00:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:31:54.934377
- Title: Deep Constraint-based Propagation in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける深い制約に基づく伝播
- Authors: Matteo Tiezzi, Giuseppe Marra, Stefano Melacci and Marco Maggini
- Abstract要約: 本稿では,ラグランジアンフレームワークにおける制約付き最適化に基づくグラフニューラルネットワーク(GNN)の学習手法を提案する。
我々の計算構造は、重み、ノード状態変数、ラグランジュ乗算器からなる随伴空間におけるラグランジアンのサドル点を探索する。
実験により,提案手法はいくつかのベンチマークで一般的なモデルと比較された。
- 参考スコア(独自算出の注目度): 15.27048776159285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popularity of deep learning techniques renewed the interest in neural
architectures able to process complex structures that can be represented using
graphs, inspired by Graph Neural Networks (GNNs). We focus our attention on the
originally proposed GNN model of Scarselli et al. 2009, which encodes the state
of the nodes of the graph by means of an iterative diffusion procedure that,
during the learning stage, must be computed at every epoch, until the fixed
point of a learnable state transition function is reached, propagating the
information among the neighbouring nodes. We propose a novel approach to
learning in GNNs, based on constrained optimization in the Lagrangian
framework. Learning both the transition function and the node states is the
outcome of a joint process, in which the state convergence procedure is
implicitly expressed by a constraint satisfaction mechanism, avoiding iterative
epoch-wise procedures and the network unfolding. Our computational structure
searches for saddle points of the Lagrangian in the adjoint space composed of
weights, nodes state variables and Lagrange multipliers. This process is
further enhanced by multiple layers of constraints that accelerate the
diffusion process. An experimental analysis shows that the proposed approach
compares favourably with popular models on several benchmarks.
- Abstract(参考訳): ディープラーニング技術の人気は、グラフニューラルネットワーク(GNN)にインスパイアされたグラフを使用して表現できる複雑な構造を処理できるニューラルネットワークへの関心を高めた。
我々は,学習段階において,学習可能な状態遷移関数の固定点に到達するまで,各エポックで計算しなければならない反復拡散手順を用いてグラフのノードの状態を符号化し,隣接ノード間の情報を伝播するscarselli et al. 2009のgnnモデルに注目した。
本稿では,ラグランジアンフレームワークにおける制約付き最適化に基づくGNNの学習手法を提案する。
遷移関数とノード状態の両方を学ぶことは、状態収束手順が制約満足メカニズムによって暗黙的に表現され、反復的なエポックな手続きとネットワーク展開を避ける共同プロセスの結果である。
我々の計算構造は、重み、ノード状態変数、ラグランジュ乗算器からなる随伴空間におけるラグランジアンのサドル点を探索する。
このプロセスは拡散過程を加速する複数の制約層によってさらに強化される。
実験分析の結果,提案手法はいくつかのベンチマークで人気のあるモデルと比較できることがわかった。
関連論文リスト
- Distance Recomputator and Topology Reconstructor for Graph Neural Networks [22.210886585639063]
グラフニューラルネットワーク(GNN)の強化を目的とした距離再計算手法とトポロジー再構成手法を導入する。
Distance Recomputatorは動的符号化方式を用いてノード距離を動的に補正し、ノード表現の精度と適応性を向上させる。
トポロジー再構成器は、計算された「類似性距離」に基づいて局所グラフ構造を調整し、学習結果を改善するためにネットワーク構成を最適化する。
論文 参考訳(メタデータ) (2024-06-25T05:12:51Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Graph Neural Network Based Node Deployment for Throughput Enhancement [20.56966053013759]
本稿では,ネットワークノード配置問題に対する新しいグラフニューラルネットワーク(GNN)手法を提案する。
提案手法の理論的サポートとして,表現型GNNが関数値とトラフィック置換の両方を近似する能力を持つことを示す。
論文 参考訳(メタデータ) (2022-08-19T08:06:28Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Action Recognition with Kernel-based Graph Convolutional Networks [14.924672048447338]
learning graph convolutional networks(gcns)は、ディープラーニングを任意の非正規ドメインに一般化することを目的としている。
再生カーネルヒルベルト空間(RKHS)における空間グラフ畳み込みを実現する新しいGCNフレームワークを提案する。
gcnモデルの特長は、学習グラフフィルタの受容野のノードと入力グラフのノードを明示的に認識せずに畳み込みを実現する能力にも関係しています。
論文 参考訳(メタデータ) (2020-12-28T11:02:51Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z) - A Lagrangian Approach to Information Propagation in Graph Neural
Networks [21.077268852378385]
本稿では,グラフニューラルネットワーク(GNN)モデルに対する状態計算と学習アルゴリズムの新たなアプローチを提案する。
状態収束手順は、制約満足度機構によって暗黙的に表現され、学習手順の各エポックに対して別々の反復フェーズを必要としない。
実際、計算構造はウェイト、ニューラルアウトプット(ノード状態)、ラグランジュ乗数からなる随伴空間におけるラグランジアンのサドル点の探索に基づいている。
論文 参考訳(メタデータ) (2020-02-18T16:13:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。