論文の概要: CryptoGCN: Fast and Scalable Homomorphically Encrypted Graph
Convolutional Network Inference
- arxiv url: http://arxiv.org/abs/2209.11904v1
- Date: Sat, 24 Sep 2022 02:20:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:13:43.500749
- Title: CryptoGCN: Fast and Scalable Homomorphically Encrypted Graph
Convolutional Network Inference
- Title(参考訳): CryptoGCN: 高速でスケーラブルな同型暗号化グラフ畳み込みネットワーク推論
- Authors: Ran Ran, Nuo Xu, Wei Wang, Quan Gang, Jieming Yin, Wujie Wen
- Abstract要約: クラウドベースのグラフ畳み込みネットワーク(GCN)は、多くのプライバシに敏感なアプリケーションで大きな成功と可能性を示している。
クラウド上での推論精度とパフォーマンスは高いが、GCN推論におけるデータのプライバシの維持については、まだ明らかにされていない。
本稿では,この手法を最初に試行し,同型暗号(HE)に基づくGCN推論フレームワークであるtextitCryptoGCN$-を開発する。
- 参考スコア(独自算出の注目度): 12.03953896181613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently cloud-based graph convolutional network (GCN) has demonstrated great
success and potential in many privacy-sensitive applications such as personal
healthcare and financial systems. Despite its high inference accuracy and
performance on cloud, maintaining data privacy in GCN inference, which is of
paramount importance to these practical applications, remains largely
unexplored. In this paper, we take an initial attempt towards this and develop
$\textit{CryptoGCN}$--a homomorphic encryption (HE) based GCN inference
framework. A key to the success of our approach is to reduce the tremendous
computational overhead for HE operations, which can be orders of magnitude
higher than its counterparts in the plaintext space. To this end, we develop an
approach that can effectively take advantage of the sparsity of matrix
operations in GCN inference to significantly reduce the computational overhead.
Specifically, we propose a novel AMA data formatting method and associated
spatial convolution methods, which can exploit the complex graph structure and
perform efficient matrix-matrix multiplication in HE computation and thus
greatly reduce the HE operations. We also develop a co-optimization framework
that can explore the trade offs among the accuracy, security level, and
computational overhead by judicious pruning and polynomial approximation of
activation module in GCNs. Based on the NTU-XVIEW skeleton joint dataset, i.e.,
the largest dataset evaluated homomorphically by far as we are aware of, our
experimental results demonstrate that $\textit{CryptoGCN}$ outperforms
state-of-the-art solutions in terms of the latency and number of homomorphic
operations, i.e., achieving as much as a 3.10$\times$ speedup on latency and
reduces the total Homomorphic Operation Count by 77.4\% with a small accuracy
loss of 1-1.5$\%$.
- Abstract(参考訳): 最近、クラウドベースのグラフ畳み込みネットワーク(gcn)は、パーソナルヘルスケアや金融システムなど、多くのプライバシーに敏感なアプリケーションで大きな成功と可能性を示しています。
クラウドでの推論精度とパフォーマンスは高いが、これらの実用的なアプリケーションにとって最も重要なgcn推論におけるデータのプライバシの維持は、いまだに未検討のままである。
本稿では,この手法を最初に試み,$\textit{CryptoGCN}$--同型暗号(HE)に基づくGCN推論フレームワークを開発する。
提案手法の成功の鍵はHE演算の計算オーバーヘッドを大幅に削減することであり、これは平文空間の計算オーバヘッドよりも桁違いに高い。
そこで本研究では,GCN推論における行列演算の分散性を効果的に活用し,計算オーバーヘッドを大幅に削減する手法を開発した。
具体的には,複雑なグラフ構造を活用し,he計算において効率的な行列行列乗算を行い,he演算を大幅に削減できる新しいamaデータフォーマッティング法と空間畳み込み法を提案する。
また,GCNにおけるアクティベーションモジュールの偏差と多項式近似により,精度,セキュリティレベル,計算オーバーヘッドのトレードオフを探索できる協調最適化フレームワークを開発した。
NTU-XVIEWスケルトン共同データセット(英語版)、すなわち、我々が知る限り、最も大きなデータセットがホモモルフィズム的に評価されていることに基づいて、実験結果は、$\textit{CryptoGCN}$は、レイテンシとホモモルフィズム演算数の点で最先端のソリューションよりも優れており、すなわち、レイテンシを3.10$\times$スピードアップし、全ホモモルフィズム演算カウントを77.4\%削減し、1-1.5$\%の精度損失を小さくすることを示した。
関連論文リスト
- LinGCN: Structural Linearized Graph Convolutional Network for
Homomorphically Encrypted Inference [19.5669231249754]
本稿では,乗算深度を低減し,HEに基づくGCN推論の性能を最適化するLinGCNを提案する。
注目すべきは、LinGCNはCryptoGCNと比較して14.2倍のレイテンシ向上を実現し、推論精度は75%、乗算深度は顕著に減少することである。
論文 参考訳(メタデータ) (2023-09-25T17:56:54Z) - Efficient Privacy-Preserving Convolutional Spiking Neural Networks with
FHE [1.437446768735628]
ホモモルフィック暗号化(FHE)は、プライバシ保護計算の鍵となる技術である。
FHEは連続非ポリノミカル関数の処理に制限がある。
準同型SNNのためのFHE-DiCSNNというフレームワークを提案する。
FHE-DiCSNNの精度は97.94%で、元のネットワークの精度98.47%に比べて0.53%しか失われていない。
論文 参考訳(メタデータ) (2023-09-16T15:37:18Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - SCGC : Self-Supervised Contrastive Graph Clustering [1.1470070927586016]
グラフクラスタリングはネットワーク内のグループやコミュニティを検出する。
オートエンコーダのような深層学習手法は、豊富な構造情報を組み込むことはできない。
自己監督型コントラストグラフクラスタリング(SCGC)を提案する。
論文 参考訳(メタデータ) (2022-04-27T01:38:46Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。