論文の概要: Generalised $f$-Mean Aggregation for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2306.13826v1
- Date: Sat, 24 Jun 2023 00:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 18:47:54.222983
- Title: Generalised $f$-Mean Aggregation for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための一般化された$f$-Meanアグリゲーション
- Authors: Ryan Kortvelesy, Steven Morad, Amanda Prorok
- Abstract要約: 我々は、すべての標準アグリゲータを含む関数空間をパラメタライズする一般化アグリゲーション作用素GenAggを提案する。
我々はGenAggがベースライン法よりもはるかに高い精度で標準アグリゲータを表現可能であることを示す。
- 参考スコア(独自算出の注目度): 7.22614468437919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN) architectures are defined by their implementations
of update and aggregation modules. While many works focus on new ways to
parametrise the update modules, the aggregation modules receive comparatively
little attention. Because it is difficult to parametrise aggregation functions,
currently most methods select a "standard aggregator" such as $\mathrm{mean}$,
$\mathrm{sum}$, or $\mathrm{max}$. While this selection is often made without
any reasoning, it has been shown that the choice in aggregator has a
significant impact on performance, and the best choice in aggregator is
problem-dependent. Since aggregation is a lossy operation, it is crucial to
select the most appropriate aggregator in order to minimise information loss.
In this paper, we present GenAgg, a generalised aggregation operator, which
parametrises a function space that includes all standard aggregators. In our
experiments, we show that GenAgg is able to represent the standard aggregators
with much higher accuracy than baseline methods. We also show that using GenAgg
as a drop-in replacement for an existing aggregator in a GNN often leads to a
significant boost in performance across various tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)アーキテクチャは、更新および集約モジュールの実装によって定義される。
多くの作業は更新モジュールをパラメトリズする新しい方法に焦点を当てているが、アグリゲーションモジュールは比較的ほとんど注目されない。
集約関数のパラメライズが難しいため、現在のほとんどのメソッドは $\mathrm{mean}$, $\mathrm{sum}$, $\mathrm{max}$ のような「標準集約子」を選択する。
この選択は理由もなく行われることが多いが、アグリゲータの選択はパフォーマンスに大きな影響を与え、アグリゲータの最良の選択は問題依存であることが示されている。
集約はロッキーな操作であるため、情報損失を最小限に抑えるために最も適切なアグリゲータを選択することが重要である。
本稿では,すべての標準アグリゲータを含む関数空間をパラメータとする一般化アグリゲーション演算子genaggを提案する。
実験の結果,GenAggは標準アグリゲータをベースライン法よりもはるかに高い精度で表現できることがわかった。
また、GNNにおける既存のアグリゲータのドロップイン代替としてGenAggを使用することで、様々なタスクにおけるパフォーマンスが大幅に向上することを示す。
関連論文リスト
- Sequential Signal Mixing Aggregation for Message Passing Graph Neural Networks [2.7719338074999547]
本稿では,MPGNNのための新しいプラグ・アンド・プレイアグリゲーションであるSSMA(Sequential Signal Mixing Aggregation)を紹介する。
SSMAは隣接する特徴を2次元の離散的な信号として扱い、それらを連続的に結合させ、本質的に隣り合った特徴を混合する能力を増強する。
SSMAとよく確立されたMPGNNアーキテクチャを組み合わせると、様々なベンチマークでかなりの性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2024-09-28T17:13:59Z) - Learnable Commutative Monoids for Graph Neural Networks [0.0]
グラフニューラルネットワーク(GNN)は集約関数の選択に非常に敏感である。
繰り返しアグリゲータを備えたGNNは、最先端の置換不変アグリゲータと競合することを示す。
本稿では,学習可能な,可換な,連想的なバイナリ演算子を構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T15:43:41Z) - Multi-scale Feature Aggregation for Crowd Counting [84.45773306711747]
マルチスケール特徴集約ネットワーク(MSFANet)を提案する。
MSFANetは、ショートアグリゲーション(ShortAgg)とスキップアグリゲーション(SkipAgg)の2つの機能アグリゲーションモジュールで構成されている。
論文 参考訳(メタデータ) (2022-08-10T10:23:12Z) - IV-GNN : Interval Valued Data Handling Using Graph Neural Network [12.651341660194534]
Graph Neural Network(GNN)は、グラフ上で標準的な機械学習を実行する強力なツールである。
本稿では,新しいGNNモデルであるInterval-ValuedGraph Neural Networkを提案する。
我々のモデルは、任意の可算集合は常に可算集合 $Rn$ の部分集合であるので、既存のモデルよりもはるかに一般である。
論文 参考訳(メタデータ) (2021-11-17T15:37:09Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。