論文の概要: Using Random Noise Equivariantly to Boost Graph Neural Networks Universally
- arxiv url: http://arxiv.org/abs/2502.02479v1
- Date: Tue, 04 Feb 2025 16:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:21:56.364065
- Title: Using Random Noise Equivariantly to Boost Graph Neural Networks Universally
- Title(参考訳): ランダムノイズを均等に利用してグラフニューラルネットワークを普遍的に増強する
- Authors: Xiyuan Wang, Muhan Zhang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なタスクにおける表現性を高めるために、入力機能としてランダムノイズの可能性を探っている。
本稿では,GNNにランダムノイズを発生させる際のサンプルの複雑さの増大を,慎重に設計することなく解明する理論的枠組みについて述べる。
本稿では, 雑音の対称特性を利用して, サンプルの複雑さとボスターの一般化を実現するアーキテクチャであるEquivariant Noise GNN (ENGNN)を提案する。
- 参考スコア(独自算出の注目度): 27.542173012315413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Graph Neural Networks (GNNs) have explored the potential of random noise as an input feature to enhance expressivity across diverse tasks. However, naively incorporating noise can degrade performance, while architectures tailored to exploit noise for specific tasks excel yet lack broad applicability. This paper tackles these issues by laying down a theoretical framework that elucidates the increased sample complexity when introducing random noise into GNNs without careful design. We further propose Equivariant Noise GNN (ENGNN), a novel architecture that harnesses the symmetrical properties of noise to mitigate sample complexity and bolster generalization. Our experiments demonstrate that using noise equivariantly significantly enhances performance on node-level, link-level, subgraph, and graph-level tasks and achieves comparable performance to models designed for specific tasks, thereby offering a general method to boost expressivity across various graph tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の最近の進歩は、様々なタスクにおける表現性を高めるために、入力機能としてのランダムノイズの可能性を探っている。
しかし、ノイズを内包するアーキテクチャは性能を低下させる可能性があるが、特定のタスクのためにノイズを利用するのに適したアーキテクチャは、広範囲な適用性に欠ける。
本稿では、GNNにランダムノイズを導入する際に、設計を慎重に行うことなく、サンプルの複雑さを増大させる理論的枠組みを構築し、これらの課題に対処する。
Equivariant Noise GNN (ENGNN) についても提案する。これはノイズの対称特性を利用してサンプルの複雑性とボスター一般化を緩和する新しいアーキテクチャである。
実験により,ノードレベル,リンクレベル,サブグラフ,グラフレベルのタスクにおけるノイズの利用により,ノードレベル,サブグラフ,グラフレベルのタスクの性能が著しく向上し,特定のタスク用に設計されたモデルに匹敵する性能が得られた。
関連論文リスト
- Noise Augmented Fine Tuning for Mitigating Hallucinations in Large Language Models [1.0579965347526206]
大規模言語モデル(LLM)は、しばしば不正確な、または誤解を招くコンテンツ・ハロシンを生成する。
noise-Augmented Fine-Tuning (NoiseFiT) は適応ノイズ注入を利用してモデルロバスト性を高める新しいフレームワークである。
NoiseFiTは、動的にスケールしたガウス雑音を用いて、高SNR(より堅牢)または低SNR(潜在的に過正規化)と同定された層を選択的に摂動する。
論文 参考訳(メタデータ) (2025-04-04T09:27:19Z) - Training Robust Graph Neural Networks by Modeling Noise Dependencies [28.1151026795484]
実世界のアプリケーションでは、グラフのノード機能は様々なソースからのノイズを含むことが多く、性能が著しく低下する。
本稿では,グラフ構造やノードラベルに伝搬するノイズ依存性の連鎖をノードの特徴として生み出す,より現実的なノイズシナリオ,依存性を意識したグラフ上のノイズ(DANG)を紹介する。
本稿では,DANGのデータ生成プロセス(DGP)における変数間の因果関係を変動推論を用いてキャプチャする,新しいロバストなGNN,DA-GNNを提案する。
論文 参考訳(メタデータ) (2025-02-27T01:30:13Z) - Training Graph Neural Networks Using Non-Robust Samples [2.1937382384136637]
グラフニューラルネットワーク(GNN)は、構造化されたデータを処理するための、非常に効果的なニューラルネットワークである。
GNNは、データポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して、特徴表現を最適化する。
本稿では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T11:10:48Z) - The Silent Assistant: NoiseQuery as Implicit Guidance for Goal-Driven Image Generation [31.599902235859687]
本稿では,テキストプロンプトなどの明示的なユーザ定義入力を補完する暗黙のガイダンスとして,一致したガウスノイズを活用することを提案する。
NoiseQueryはきめ細かい制御を可能にし、ハイレベルなセマンティクスや低レベルなビジュアル属性よりもパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2024-12-06T14:59:00Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - Feature Noise Boosts DNN Generalization under Label Noise [65.36889005555669]
トレーニングデータにおけるラベルノイズの存在は、ディープニューラルネットワーク(DNN)の一般化に大きな影響を与える
本研究では,学習データの特徴に直接ノイズを付加する単純な特徴雑音法を,理論的に導入し,理論的に実証する。
論文 参考訳(メタデータ) (2023-08-03T08:31:31Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - A Comparative Study on Robust Graph Neural Networks to Structural Noises [12.44737954516764]
グラフニューラルネットワーク(GNN)は、近隣ノード間のメッセージの転送と集約によってノード表現を学習する。
GNNは、グラフ全体を通してノイズが伝播する可能性のあるメッセージパッシング機構のため、構造的なノイズに対して脆弱である可能性がある。
我々は、一貫した構造的雑音条件下で、様々な種類の頑健なGNNについて包括的で体系的な比較研究を行う。
論文 参考訳(メタデータ) (2021-12-11T21:01:29Z) - VQ-GNN: A Universal Framework to Scale up Graph Neural Networks using
Vector Quantization [70.8567058758375]
VQ-GNNは、Vector Quantization(VQ)を使用して、パフォーマンスを損なうことなく、畳み込みベースのGNNをスケールアップするための普遍的なフレームワークである。
我々のフレームワークは,グラフ畳み込み行列の低ランク版と組み合わせた量子化表現を用いて,GNNの「隣の爆発」問題を回避する。
論文 参考訳(メタデータ) (2021-10-27T11:48:50Z) - Stochastic Aggregation in Graph Neural Networks [9.551282469099887]
グラフニューラルネットワーク(GNN)は、過スムージングおよび限られた電力識別を含む病理を発現する。
GNNsにおける集約のための統合フレームワーク(STAG)を提案する。そこでは、近隣からの集約プロセスにノイズが(適応的に)注入され、ノード埋め込みを形成する。
論文 参考訳(メタデータ) (2021-02-25T02:52:03Z) - Asymmetric Heavy Tails and Implicit Bias in Gaussian Noise Injections [73.95786440318369]
我々は、勾配降下(SGD)のダイナミクスに対する注射ノイズの影響であるGNIsのいわゆる暗黙効果に焦点を当てています。
この効果は勾配更新に非対称な重尾ノイズを誘発することを示す。
そして、GNIが暗黙のバイアスを引き起こすことを正式に証明し、これは尾の重みと非対称性のレベルによって異なる。
論文 参考訳(メタデータ) (2021-02-13T21:28:09Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。