論文の概要: Noise-Injected Spiking Graph Convolution for Energy-Efficient 3D Point Cloud Denoising
- arxiv url: http://arxiv.org/abs/2502.19660v1
- Date: Thu, 27 Feb 2025 01:04:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:57:53.305357
- Title: Noise-Injected Spiking Graph Convolution for Energy-Efficient 3D Point Cloud Denoising
- Title(参考訳): エネルギー効率の良い3次元点雲デノイングのためのノイズ注入型スパイキンググラフ畳み込み
- Authors: Zikuan Li, Qiaoyun Wu, Jialin Zhang, Kaijun Zhang, Jun Wang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワーク(ANN)よりも2次元分類タスクにおいて優れたエネルギー効率を示した
本研究では,3次元点群におけるSNNのフルレグレッションポテンシャルを活用するために,ノイズ注入型スパイキンググラフ畳み込みネットワークを提案する。
- 参考スコア(独自算出の注目度): 8.698008330627536
- License:
- Abstract: Spiking neural networks (SNNs), inspired by the spiking computation paradigm of the biological neural systems, have exhibited superior energy efficiency in 2D classification tasks over traditional artificial neural networks (ANNs). However, the regression potential of SNNs has not been well explored, especially in 3D point cloud processing.In this paper, we propose noise-injected spiking graph convolutional networks to leverage the full regression potential of SNNs in 3D point cloud denoising. Specifically, we first emulate the noise-injected neuronal dynamics to build noise-injected spiking neurons. On this basis, we design noise-injected spiking graph convolution for promoting disturbance-aware spiking representation learning on 3D points. Starting from the spiking graph convolution, we build two SNN-based denoising networks. One is a purely spiking graph convolutional network, which achieves low accuracy loss compared with some ANN-based alternatives, while resulting in significantly reduced energy consumption on two benchmark datasets, PU-Net and PC-Net. The other is a hybrid architecture that combines ANN-based learning with a high performance-efficiency trade-off in just a few time steps. Our work lights up SNN's potential for 3D point cloud denoising, injecting new perspectives of exploring the deployment on neuromorphic chips while paving the way for developing energy-efficient 3D data acquisition devices.
- Abstract(参考訳): 生物学的ニューラルネットワークのスパイキング計算パラダイムにインスパイアされたスパイキングニューラルネットワーク(SNN)は、従来の人工知能ニューラルネットワーク(ANN)よりも2次元分類タスクにおいて優れたエネルギー効率を示した。
しかし,SNNの回帰ポテンシャルは特に3Dポイントクラウド処理においてよく研究されていないため,本論文では3DポイントクラウドにおけるSNNの完全な回帰ポテンシャルを活用するために,ノイズ注入型スパイキンググラフ畳み込みネットワークを提案する。
具体的には、まずノイズ注入されたニューロンをエミュレートし、ノイズ注入されたスパイキングニューロンを構築する。
そこで我々は,3次元点における外乱認識型スパイキング表現学習を促進するために,ノイズ注入型スパイキンググラフ畳み込みを設計する。
スパイクグラフの畳み込みから始めて、2つのSNNベースのデノナイジングネットワークを構築します。
ひとつは純粋にスパイクするグラフ畳み込みネットワークであり、いくつかのANNベースの代替品と比較して低い精度の損失を達成すると同時に、PU-NetとPC-Netという2つのベンチマークデータセット上でのエネルギー消費を著しく削減する。
もうひとつは、ANNベースの学習と高いパフォーマンス効率のトレードオフをほんの数ステップで組み合わせたハイブリッドアーキテクチャです。
我々の研究は、SNNが3Dポイントクラウドをデノベートする可能性を強調し、エネルギー効率のよい3Dデータ取得デバイスを開発する道を開くとともに、ニューロモルフィックチップへの展開を探求する新たな視点を注入する。
関連論文リスト
- Efficient 3D Recognition with Event-driven Spike Sparse Convolution [15.20476631850388]
スパイキングニューラルネットワーク(SNN)は3次元時間的特徴を抽出するエネルギー効率の良い方法を提供する。
本稿では3次元点雲をスパーススパイクトレイン空間に符号化するスパイクVoxel Coding(SVC)方式を提案する。
本稿では,3次元スパース・クラウドの特徴を効率的に抽出するスパイクスパース・コンボリューション(SSC)モデルを提案する。
論文 参考訳(メタデータ) (2024-12-10T09:55:15Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - PiLocNet: Physics-informed neural network on 3D localization with rotating point spread function [3.029152208453665]
これまでに導入したローカライゼーションニューラルネットワークであるLocNetの新たな拡張を提案する。
改良されたネットワークは、我々がPiLocNetと呼ぶ物理インフォームドニューラルネットワーク(PINN)である。
本論文は3次元ソース位置のエンコードにシングルローブ回転型PSFを用いることに焦点を当てるが,他のPSFや画像問題にも広く適用できると期待している。
論文 参考訳(メタデータ) (2024-10-17T07:49:23Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - BM3D vs 2-Layer ONN [27.660076041873687]
コンパクトニューラルネットワークは、AWGN画像復調のためのBM3Dと比較して、競合する結果を生み出すことができる。
その結果,最近提案されている,生成ニューロンモデル(self-onns)に基づく自己組織型ニューラルネットワークは,cnnよりも優れた選択肢ではないことがわかった。
論文 参考訳(メタデータ) (2021-03-04T14:37:23Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - SiamSNN: Siamese Spiking Neural Networks for Energy-Efficient Object
Tracking [20.595208488431766]
SiamSNNは、視覚オブジェクト追跡ベンチマークであるTB2013, VOT2016, GOT-10kにおいて、短いレイテンシと低い精度の損失を達成する最初のディープSNNトラッカーである。
SiamSNNは、ニューロモルフィックチップTrueNorth上で低エネルギー消費とリアルタイムを実現する。
論文 参考訳(メタデータ) (2020-03-17T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。