論文の概要: Using Random Noise Equivariantly to Boost Graph Neural Networks Universally
- arxiv url: http://arxiv.org/abs/2502.02479v1
- Date: Tue, 04 Feb 2025 16:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:57:31.445590
- Title: Using Random Noise Equivariantly to Boost Graph Neural Networks Universally
- Title(参考訳): ランダムノイズを均等に利用してグラフニューラルネットワークを普遍的に増強する
- Authors: Xiyuan Wang, Muhan Zhang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なタスクにおける表現性を高めるために、入力機能としてランダムノイズの可能性を探っている。
本稿では,GNNにランダムノイズを発生させる際のサンプルの複雑さの増大を,慎重に設計することなく解明する理論的枠組みについて述べる。
本稿では, 雑音の対称特性を利用して, サンプルの複雑さとボスターの一般化を実現するアーキテクチャであるEquivariant Noise GNN (ENGNN)を提案する。
- 参考スコア(独自算出の注目度): 27.542173012315413
- License:
- Abstract: Recent advances in Graph Neural Networks (GNNs) have explored the potential of random noise as an input feature to enhance expressivity across diverse tasks. However, naively incorporating noise can degrade performance, while architectures tailored to exploit noise for specific tasks excel yet lack broad applicability. This paper tackles these issues by laying down a theoretical framework that elucidates the increased sample complexity when introducing random noise into GNNs without careful design. We further propose Equivariant Noise GNN (ENGNN), a novel architecture that harnesses the symmetrical properties of noise to mitigate sample complexity and bolster generalization. Our experiments demonstrate that using noise equivariantly significantly enhances performance on node-level, link-level, subgraph, and graph-level tasks and achieves comparable performance to models designed for specific tasks, thereby offering a general method to boost expressivity across various graph tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の最近の進歩は、様々なタスクにおける表現性を高めるために、入力機能としてのランダムノイズの可能性を探っている。
しかし、ノイズを内包するアーキテクチャは性能を低下させる可能性があるが、特定のタスクのためにノイズを利用するのに適したアーキテクチャは、広範囲な適用性に欠ける。
本稿では、GNNにランダムノイズを導入する際に、設計を慎重に行うことなく、サンプルの複雑さを増大させる理論的枠組みを構築し、これらの課題に対処する。
Equivariant Noise GNN (ENGNN) についても提案する。これはノイズの対称特性を利用してサンプルの複雑性とボスター一般化を緩和する新しいアーキテクチャである。
実験により,ノードレベル,リンクレベル,サブグラフ,グラフレベルのタスクにおけるノイズの利用により,ノードレベル,サブグラフ,グラフレベルのタスクの性能が著しく向上し,特定のタスク用に設計されたモデルに匹敵する性能が得られた。
関連論文リスト
- Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - DEGNN: Dual Experts Graph Neural Network Handling Both Edge and Node Feature Noise [5.048629544493508]
グラフニューラルネットワーク(GNN)は、グラフデータよりも様々なアプリケーションで顕著な成功を収めている。
近年の研究では、実世界のグラフにはノイズがしばしば含まれており、GNNはグラフ内のノイズに影響を受けやすいことが判明している。
我々は、エッジとノードの特徴の両面においてノイズを効果的に緩和するために設計された新しいGNNモデルであるDECNNを提案する。
論文 参考訳(メタデータ) (2024-04-14T10:04:44Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Walking Noise: On Layer-Specific Robustness of Neural Architectures against Noisy Computations and Associated Characteristic Learning Dynamics [1.5184189132709105]
本稿では,異なる分類タスクとモデルアーキテクチャに対する加法的,乗法的,混合ノイズの影響について論じる。
本研究では,ロバスト性を測定するため,層固有のノイズを注入するウォーキングノイズ法を提案する。
我々は,この方法論の実践的利用に関する議論をまとめ,ノイズの多い環境での適応型マルチエグゼクティブの活用について論じる。
論文 参考訳(メタデータ) (2022-12-20T17:09:08Z) - How Powerful is Implicit Denoising in Graph Neural Networks [33.01155523195073]
我々は、GNNで暗黙の妄想が起こる時期と理由を総合的な理論的研究を行い、分析する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
我々は頑健なグラフ畳み込みを導出し、ノード表現の滑らかさと暗黙の認知効果を高めることができる。
論文 参考訳(メタデータ) (2022-09-29T02:19:39Z) - A Comparative Study on Robust Graph Neural Networks to Structural Noises [12.44737954516764]
グラフニューラルネットワーク(GNN)は、近隣ノード間のメッセージの転送と集約によってノード表現を学習する。
GNNは、グラフ全体を通してノイズが伝播する可能性のあるメッセージパッシング機構のため、構造的なノイズに対して脆弱である可能性がある。
我々は、一貫した構造的雑音条件下で、様々な種類の頑健なGNNについて包括的で体系的な比較研究を行う。
論文 参考訳(メタデータ) (2021-12-11T21:01:29Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Stochastic Aggregation in Graph Neural Networks [9.551282469099887]
グラフニューラルネットワーク(GNN)は、過スムージングおよび限られた電力識別を含む病理を発現する。
GNNsにおける集約のための統合フレームワーク(STAG)を提案する。そこでは、近隣からの集約プロセスにノイズが(適応的に)注入され、ノード埋め込みを形成する。
論文 参考訳(メタデータ) (2021-02-25T02:52:03Z) - Asymmetric Heavy Tails and Implicit Bias in Gaussian Noise Injections [73.95786440318369]
我々は、勾配降下(SGD)のダイナミクスに対する注射ノイズの影響であるGNIsのいわゆる暗黙効果に焦点を当てています。
この効果は勾配更新に非対称な重尾ノイズを誘発することを示す。
そして、GNIが暗黙のバイアスを引き起こすことを正式に証明し、これは尾の重みと非対称性のレベルによって異なる。
論文 参考訳(メタデータ) (2021-02-13T21:28:09Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。