論文の概要: Towards Efficient Graph Convolutional Networks for Point Cloud Handling
- arxiv url: http://arxiv.org/abs/2104.05706v1
- Date: Mon, 12 Apr 2021 17:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 16:45:08.571049
- Title: Towards Efficient Graph Convolutional Networks for Point Cloud Handling
- Title(参考訳): ポイントクラウドハンドリングのための効率的なグラフ畳み込みネットワークを目指して
- Authors: Yawei Li, He Chen, Zhaopeng Cui, Radu Timofte, Marc Pollefeys, Gregory
Chirikjian, Luc Van Gool
- Abstract要約: ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
- 参考スコア(独自算出の注目度): 181.59146413326056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we aim at improving the computational efficiency of graph
convolutional networks (GCNs) for learning on point clouds. The basic graph
convolution that is typically composed of a $K$-nearest neighbor (KNN) search
and a multilayer perceptron (MLP) is examined. By mathematically analyzing the
operations there, two findings to improve the efficiency of GCNs are obtained.
(1) The local geometric structure information of 3D representations propagates
smoothly across the GCN that relies on KNN search to gather neighborhood
features. This motivates the simplification of multiple KNN searches in GCNs.
(2) Shuffling the order of graph feature gathering and an MLP leads to
equivalent or similar composite operations. Based on those findings, we
optimize the computational procedure in GCNs. A series of experiments show that
the optimized networks have reduced computational complexity, decreased memory
consumption, and accelerated inference speed while maintaining comparable
accuracy for learning on point clouds. Code will be available at
\url{https://github.com/ofsoundof/EfficientGCN.git}.
- Abstract(参考訳): 本稿では,点クラウド上で学習するグラフ畳み込みネットワーク(GCN)の計算効率を向上させることを目的とする。
通常、K$-nearest neighbor (KNN) 探索と多層パーセプトロン (MLP) からなる基本グラフ畳み込みについて検討する。
そこでの演算を数学的に解析することにより,GCNの効率を向上させる2つの知見を得た。
1) 3次元表現の局所的幾何学的構造情報は,KNN探索による近傍特徴の収集に依存するGCN全体にわたって円滑に伝播する。
これにより、GCNにおける複数のKNN検索が簡単になる。
2)グラフ特徴集合の順序をシャッフルし、MLPが等価あるいは類似の複合演算に導く。
これらの結果に基づき,GCNの計算手順を最適化する。
一連の実験により、最適化されたネットワークは計算の複雑さを減らし、メモリ消費を減らし、予測速度を加速し、ポイントクラウド上での学習の精度を同等に保った。
コードは \url{https://github.com/ofsoundof/EfficientGCN.git} で入手できる。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - SoGCN: Second-Order Graph Convolutional Networks [20.840026487716404]
多層二階グラフ畳み込み(SoGC)は任意の係数でスペクトルフィルタを表現するのに十分であることを示す。
We build our Second-Order Graph Convolutional Networks (SoGCN) with SoGC and design a synthetic dataset to verify its filter fitabilities。
論文 参考訳(メタデータ) (2021-10-14T03:56:34Z) - Learning Graph Neural Networks with Approximate Gradient Descent [24.49427608361397]
ラベルがノードまたはグラフに添付されているかどうかに応じて、2種類のグラフニューラルネットワーク(GNN)が調査されます。
gnnトレーニングアルゴリズムの設計と解析のための包括的なフレームワークを開発した。
提案アルゴリズムは,GNNの根底にある真のパラメータに対する線形収束率を保証する。
論文 参考訳(メタデータ) (2020-12-07T02:54:48Z) - Node Similarity Preserving Graph Convolutional Networks [51.520749924844054]
グラフニューラルネットワーク(GNN)は、ノード近傍の情報を集約し変換することで、グラフ構造とノードの特徴を探索する。
グラフ構造を利用してノード類似性を効果的かつ効率的に保存できるSimP-GCNを提案する。
本研究は,SimP-GCNが3つの分類グラフと4つの非補助グラフを含む7つのベンチマークデータセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2020-11-19T04:18:01Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Revisiting Graph Convolutional Network on Semi-Supervised Node
Classification from an Optimization Perspective [10.178145000390671]
グラフ畳み込みネットワーク(GCN)は、様々なグラフベースのタスクにおいて有望な性能を達成した。
しかし、より多くのレイヤを積み重ねる際には、過剰なスムーシングに悩まされる。
本稿では,この観測を定量的に研究し,より深いGCNに対する新たな洞察を開拓する。
論文 参考訳(メタデータ) (2020-09-24T03:36:43Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。