論文の概要: Learning Resource Allocation Policy: Vertex-GNN or Edge-GNN?
- arxiv url: http://arxiv.org/abs/2307.12480v1
- Date: Mon, 24 Jul 2023 02:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 16:03:44.414377
- Title: Learning Resource Allocation Policy: Vertex-GNN or Edge-GNN?
- Title(参考訳): 学習リソース割り当てポリシー: vertex-gnn か edge-gnnか?
- Authors: Yao Peng, Jia Guo and Chenyang Yang
- Abstract要約: グラフニューラルネットワーク(GNN)は、頂点の隠された表現(Vertex-GNN)またはエッジの隠された表現(Edge-GNN)を更新する。
本稿では,Vertex-GNNとEdge-GNNの表現力を分析し,3つの代表的無線ポリシーを学習する。
GNNの表現力は、処理と組み合わせ関数の線形性と出力次元に依存する。
- 参考スコア(独自算出の注目度): 31.91863658131543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) update the hidden representations of vertices
(called Vertex-GNNs) or hidden representations of edges (called Edge-GNNs) by
processing and pooling the information of neighboring vertices and edges and
combining to incorporate graph topology. When learning resource allocation
policies, GNNs cannot perform well if their expressive power are weak, i.e., if
they cannot differentiate all input features such as channel matrices. In this
paper, we analyze the expressive power of the Vertex-GNNs and Edge-GNNs for
learning three representative wireless policies: link scheduling, power
control, and precoding policies. We find that the expressive power of the GNNs
depend on the linearity and output dimensions of the processing and combination
functions. When linear processors are used, the Vertex-GNNs cannot
differentiate all channel matrices due to the loss of channel information,
while the Edge-GNNs can. When learning the precoding policy, even the
Vertex-GNNs with non-linear processors may not be with strong expressive
ability due to the dimension compression. We proceed to provide necessary
conditions for the GNNs to well learn the precoding policy. Simulation results
validate the analyses and show that the Edge-GNNs can achieve the same
performance as the Vertex-GNNs with much lower training and inference time.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、隣接する頂点とエッジの情報処理とプールを行い、グラフトポロジを統合することで、頂点の隠された表現(Vertex-GNN)またはエッジの隠された表現(Edge-GNN)を更新する。
資源割り当てポリシーを学ぶとき、GNNは表現力が弱い場合、すなわちチャネル行列のような全ての入力特徴を区別できない場合、うまく機能しない。
本稿では,Vertex-GNNとEdge-GNNの表現力を分析し,リンクスケジューリング,電力制御,プリコーディングポリシの3つの代表的無線ポリシを学習する。
gnnの表現力は処理関数と組合せ関数の線形性と出力次元に依存することがわかった。
線形プロセッサを使用する場合、Vertex-GNNはチャネル情報の欠如により全てのチャネル行列を区別できないが、Edge-GNNは区別できる。
プリコーディングポリシーを学ぶとき、非線形プロセッサを持つVertex-GNNでさえ、次元圧縮のために強い表現能力を持っていないかもしれない。
我々は、GNNが事前コーディングポリシーを十分に学習するために必要な条件の提供を進めます。
シミュレーションの結果,Edge-GNNとVertex-GNNでは,トレーニング時間や推論時間を大幅に短縮できることがわかった。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Graph Coordinates and Conventional Neural Networks -- An Alternative for
Graph Neural Networks [0.10923877073891444]
メッセージパッシングGNNの新たな代替手段として,Topology Coordinate Neural Network (TCNN) と Directional Virtual Coordinate Neural Network (DVCNN) を提案する。
TCNNとDVCNNは、メッセージパッシングGNNの競合や優れたパフォーマンスを達成する。
私たちの研究は、グラフベースの機械学習のためのテクニックのツールボックスを拡張します。
論文 参考訳(メタデータ) (2023-12-03T10:14:10Z) - You Can Have Better Graph Neural Networks by Not Training Weights at
All: Finding Untrained GNNs Tickets [105.24703398193843]
グラフニューラルネットワーク(GNN)の未訓練作業はまだ謎のままだ。
得られた未学習作品によって,GNNの過度なスムース化問題を大幅に軽減できることを示す。
また,そのような未学習作業が,入力摂動の分布外検出と堅牢性に優れていることも観察した。
論文 参考訳(メタデータ) (2022-11-28T14:17:36Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - AdaGNN: A multi-modal latent representation meta-learner for GNNs based
on AdaBoosting [0.38073142980733]
グラフニューラルネットワーク(GNN)は、固有のネットワーク機能の抽出に重点を置いている。
GNNのための強化型メタラーナを提案する。
AdaGNNは、リッチで多様なノード近傍情報を持つアプリケーションに対して非常によく機能する。
論文 参考訳(メタデータ) (2021-08-14T03:07:26Z) - AKE-GNN: Effective Graph Learning with Adaptive Knowledge Exchange [14.919474099848816]
グラフニューラルネットワーク(GNN)はすでに様々なグラフマイニングタスクで広く使われている。
近年の研究では、十分に訓練されたGNNにおける学習重量(チャネル)が非常に冗長であり、GNNの性能が制限されていることが明らかになっている。
本稿では,Aaptive Knowledge Exchange 戦略を実行する新しい GNN 学習フレームワーク AKE-GNN を紹介する。
論文 参考訳(メタデータ) (2021-06-10T02:00:26Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - Edgeless-GNN: Unsupervised Inductive Edgeless Network Embedding [7.391641422048645]
ネットワークを新たに入力したユーザなど,エッジレスノードを埋め込む問題について検討する。
我々は,非教師付き帰納学習により,エッジレスノードに対してもノード埋め込みを生成可能な新しいフレームワークであるEdgeless-GNNを提案する。
論文 参考訳(メタデータ) (2021-04-12T06:37:31Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。