論文の概要: Binarized Simplicial Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2405.04098v1
- Date: Tue, 7 May 2024 08:05:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 14:59:23.561131
- Title: Binarized Simplicial Convolutional Neural Networks
- Title(参考訳): バイナリ化された単純な畳み込みニューラルネットワーク
- Authors: Yi Yan, Ercan E. Kuruoglu,
- Abstract要約: 双極化単純畳み込みニューラルネットワーク(Bi-SCNN)という,単体錯体上の新しいニューラルネットワークアーキテクチャを提案する。
従来のSimplicial Convolutional Neural Networksと比較して、Bi-SCNNのモデル複雑性の低減は、予測性能を犠牲にすることなく実行時間を短縮する。
実世界の観測と海洋ドリフトデータによる実験により,提案したBi-SCNNは効率的かつ正確であることが確認された。
- 参考スコア(独自算出の注目度): 6.069611493148632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks have a limitation of solely processing features on graph nodes, neglecting data on high-dimensional structures such as edges and triangles. Simplicial Convolutional Neural Networks (SCNN) represent higher-order structures using simplicial complexes to break this limitation albeit still lacking time efficiency. In this paper, we propose a novel neural network architecture on simplicial complexes named Binarized Simplicial Convolutional Neural Networks (Bi-SCNN) based on the combination of simplicial convolution with a binary-sign forward propagation strategy. The usage of the Hodge Laplacian on a binary-sign forward propagation enables Bi-SCNN to efficiently and effectively represent simplicial features that have higher-order structures than traditional graph node representations. Compared to the previous Simplicial Convolutional Neural Networks, the reduced model complexity of Bi-SCNN shortens the execution time without sacrificing the prediction performance and is less prone to the over-smoothing effect. Experimenting with real-world citation and ocean-drifter data confirmed that our proposed Bi-SCNN is efficient and accurate.
- Abstract(参考訳): グラフニューラルネットワークは、エッジや三角形のような高次元構造のデータを無視して、グラフノードでのみ処理する機能を制限する。
単純な畳み込みニューラルネットワーク(Simplicial Convolutional Neural Networks, SCNN)は、この制限を破るために単純な複合体を用いる高次構造を表現する。
本稿では, 単純畳み込みと二分符号前方伝播戦略の組み合わせを基礎として, 単純畳み込みニューラルネットワーク (Bi-SCNN) という, 単純な複合体上の新しいニューラルネットワークアーキテクチャを提案する。
二項符号前方伝播におけるホッジラプラシアンの使用により、Bi-SCNNは従来のグラフノード表現よりも高階構造を持つ単純な特徴を効率的かつ効果的に表現することができる。
従来のSimplicial Convolutional Neural Networksと比較して、Bi-SCNNのモデル複雑性の低減は、予測性能を犠牲にすることなく実行時間を短縮し、過度なスムーシング効果を伴わない。
実世界の引用データと海洋ドリフトデータを用いて実験した結果,提案したBi-SCNNは効率的かつ正確であることが確認された。
関連論文リスト
- Non-convolutional Graph Neural Networks [46.79328529882998]
畳み込み演算子を完全に含まない単純なグラフ学習モジュールを設計し、RUMニューラルネットワークを用いたランダムウォークを作成した。
RUMは競合する性能を実現するが、より堅牢で、メモリ効率が高く、スケーラブルで、最も単純な畳み込みGNNよりも高速である。
論文 参考訳(メタデータ) (2024-07-31T21:29:26Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Simplicial Attention Networks [4.401427499962144]
SNN(Simplicial Neural Networks)は、simplicial Complex上でメッセージパッシングを実行することによって、自然な相互作用をモデル化する。
Simplicial Attention Networks (SAT) は,近隣のsimplicial間の相互作用を動的に重み付けする,新しいタイプのsimplicial Networks を提案する。
SATは、既存の畳み込みSNNとGNNを2つの画像および軌跡分類タスクで上回ることを示す。
論文 参考訳(メタデータ) (2022-04-20T13:41:50Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Bi-GCN: Binary Graph Convolutional Network [57.733849700089955]
ネットワークパラメータと入力ノードの特徴を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均30倍のメモリ消費を削減でき、推論速度を平均47倍に加速できる。
論文 参考訳(メタデータ) (2020-10-15T07:26:23Z) - Simplicial Neural Networks [0.0]
SNN(Simplicial Neural Network)を提案する。
SNNは、Simplicial Complexと呼ばれる位相空間のクラスに存在するデータへのグラフニューラルネットワークの一般化である。
我々は,コオーサシップコンプレックスの欠落したデータを出力する作業において,SNNを試験する。
論文 参考訳(メタデータ) (2020-10-07T20:15:01Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。