論文の概要: Revisiting convolutional neural network on graphs with polynomial
approximations of Laplace-Beltrami spectral filtering
- arxiv url: http://arxiv.org/abs/2010.13269v1
- Date: Mon, 26 Oct 2020 01:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:02:47.242451
- Title: Revisiting convolutional neural network on graphs with polynomial
approximations of Laplace-Beltrami spectral filtering
- Title(参考訳): Laplace-Beltramiスペクトルフィルタリングの多項式近似を用いたグラフ上の畳み込みニューラルネットワークの再検討
- Authors: Shih-Gu Huang, Moo K. Chung, Anqi Qiu, Alzheimer's Disease
Neuroimaging Initiative
- Abstract要約: 本稿では,Defferrardで与えられたスペクトルグラフニューラルネットワーク(graph-CNN)を再検討する。
グラフラプラシアンをLB演算子に置き換えることで、LBCNN(Laplace-Beltrami CNN)を開発する。
- 参考スコア(独自算出の注目度): 6.111909222842263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper revisits spectral graph convolutional neural networks (graph-CNNs)
given in Defferrard (2016) and develops the Laplace-Beltrami CNN (LB-CNN) by
replacing the graph Laplacian with the LB operator. We then define spectral
filters via the LB operator on a graph. We explore the feasibility of
Chebyshev, Laguerre, and Hermite polynomials to approximate LB-based spectral
filters and define an update of the LB operator for pooling in the LBCNN. We
employ the brain image data from Alzheimer's Disease Neuroimaging Initiative
(ADNI) and demonstrate the use of the proposed LB-CNN. Based on the cortical
thickness of the ADNI dataset, we showed that the LB-CNN didn't improve
classification accuracy compared to the spectral graph-CNN. The three
polynomials had a similar computational cost and showed comparable
classification accuracy in the LB-CNN or spectral graph-CNN. Our findings
suggest that even though the shapes of the three polynomials are different,
deep learning architecture allows us to learn spectral filters such that the
classification performance is not dependent on the type of the polynomials or
the operators (graph Laplacian and LB operator).
- Abstract(参考訳): 本稿では、Defferrard(2016)で与えられたスペクトルグラフ畳み込みニューラルネットワーク(graph-CNN)を再検討し、グラフラプラシアンをLB演算子に置き換えることにより、Laplace-Beltrami CNN(LB-CNN)を開発する。
次に、グラフ上のLB演算子を介してスペクトルフィルタを定義する。
本稿では, チェビシェフ, ラゲール, ヘルミテ多項式のLBスペクトルフィルタ近似の実現可能性について検討し, LBCNNにおけるプールのためのLB演算子の更新を定義する。
我々は、アルツハイマー病神経画像イニシアチブ(ADNI)の脳画像データを用いて、提案したLB-CNNの使用を実証する。
ADNIデータセットの皮質厚みに基づいて,LB-CNNはスペクトルグラフCNNと比較して分類精度を向上しなかった。
3つの多項式は計算コストが類似しており、LB-CNNやスペクトルグラフ-CNNで同等の分類精度を示した。
その結果,3つの多項式の形状が異なるにもかかわらず,ディープラーニングアーキテクチャにより,分類性能が多項式のタイプや演算子(グラフラプラシアンおよびLB演算子)に依存しないようなスペクトルフィルタを学習できることがわかった。
関連論文リスト
- GrassNet: State Space Model Meets Graph Neural Network [57.62885438406724]
Graph State Space Network (GrassNet)は、任意のグラフスペクトルフィルタを設計するためのシンプルで効果的なスキームを提供する理論的なサポートを持つ、新しいグラフニューラルネットワークである。
我々の知る限り、我々の研究はグラフGNNスペクトルフィルタの設計にSSMを使った最初のものである。
9つの公開ベンチマークでの大規模な実験により、GrassNetは現実世界のグラフモデリングタスクにおいて優れたパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2024-08-16T07:33:58Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - TetCNN: Convolutional Neural Networks on Tetrahedral Meshes [2.952111139469156]
畳み込みニューラルネットワーク(CNN)は、画像、ビデオ、グラフ、三角形メッシュで広く研究されている。
四面体メッシュ構造のための新しい解釈可能なグラフCNNフレームワークを提案する。
ChebyNetにインスパイアされた当社のモデルは,LBO(ボリュームラプラス・ベルトラミ演算子)を用いて,一般的に使用されているグラフラプラシアン上のフィルタを定義する。
論文 参考訳(メタデータ) (2023-02-08T01:52:48Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - Fast Mesh Data Augmentation via Chebyshev Polynomial of Spectral
filtering [5.594792814661452]
ディープニューラルネットワークは、コンピュータビジョンと医療画像解析における強力な学習手法の1つとして認識されている。
実際には、利用可能なトレーニングデータが不十分な場合が多く、データセットを拡張するために拡張が使用される。
本研究では,LB-eigDA(Laplace-Beltrami eigenfunction Data Augmentation)とChebyshev Data Augmentation(C-pDA)の2つの非バイアス拡張手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T15:18:26Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Framework for Designing Filters of Spectral Graph Convolutional Neural
Networks in the Context of Regularization Theory [1.0152838128195467]
グラフ畳み込みニューラルネットワーク(GCNN)はグラフ学習に広く利用されている。
グラフ上の滑らかさ関数はグラフラプラシアンの言葉で定義できる。
本稿では,グラフラプラシアンの正規化特性について検討し,スペクトルGCNNにおける正規化フィルタ設計のための一般化されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-29T06:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。