論文の概要: TeleSparse: Practical Privacy-Preserving Verification of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2504.19274v1
- Date: Sun, 27 Apr 2025 15:14:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.210957
- Title: TeleSparse: Practical Privacy-Preserving Verification of Deep Neural Networks
- Title(参考訳): TeleSparse: ディープニューラルネットワークの実用的プライバシ保護検証
- Authors: Mohammad M Maheri, Hamed Haddadi, Alex Davidson,
- Abstract要約: ZK-SNARKは、機密データにアクセスせずにモデル推論を検証する機能を提供するようだ。
ZK-SNARKをトランスフォーマーや大型ビジョンモデルといった現代のニューラルネットワークに適用すると、計算オーバーヘッドが大幅に増加する。
本稿では,ZKフレンドリーな後処理機構であるTeleSparseについて述べる。
- 参考スコア(独自算出の注目度): 6.761197166421685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verification of the integrity of deep learning inference is crucial for understanding whether a model is being applied correctly. However, such verification typically requires access to model weights and (potentially sensitive or private) training data. So-called Zero-knowledge Succinct Non-Interactive Arguments of Knowledge (ZK-SNARKs) would appear to provide the capability to verify model inference without access to such sensitive data. However, applying ZK-SNARKs to modern neural networks, such as transformers and large vision models, introduces significant computational overhead. We present TeleSparse, a ZK-friendly post-processing mechanisms to produce practical solutions to this problem. TeleSparse tackles two fundamental challenges inherent in applying ZK-SNARKs to modern neural networks: (1) Reducing circuit constraints: Over-parameterized models result in numerous constraints for ZK-SNARK verification, driving up memory and proof generation costs. We address this by applying sparsification to neural network models, enhancing proof efficiency without compromising accuracy or security. (2) Minimizing the size of lookup tables required for non-linear functions, by optimizing activation ranges through neural teleportation, a novel adaptation for narrowing activation functions' range. TeleSparse reduces prover memory usage by 67% and proof generation time by 46% on the same model, with an accuracy trade-off of approximately 1%. We implement our framework using the Halo2 proving system and demonstrate its effectiveness across multiple architectures (Vision-transformer, ResNet, MobileNet) and datasets (ImageNet,CIFAR-10,CIFAR-100). This work opens new directions for ZK-friendly model design, moving toward scalable, resource-efficient verifiable deep learning.
- Abstract(参考訳): モデルが正しく適用されているかどうかを理解するためには,ディープラーニング推論の完全性の検証が不可欠である。
しかし、そのような検証は通常、モデルウェイトと(潜在的に敏感またはプライベートな)トレーニングデータへのアクセスを必要とする。
いわゆるZero-knowledge Succinct Non-Interactive Arguments of Knowledge (ZK-SNARKs)は、そのような機密データにアクセスせずにモデル推論を検証する機能を提供する。
しかし、トランスフォーマーや大型ビジョンモデルのような現代のニューラルネットワークにZK-SNARKを適用すると、計算オーバーヘッドが大幅に増加する。
本稿では,ZKフレンドリーな後処理機構であるTeleSparseについて述べる。
1 回路制約の低減: 過パラメータ化されたモデルは、ZK-SNARK検証、メモリの高速化、証明生成コストに対する多くの制約をもたらす。
ニューラルネットワークモデルにスパーシフィケーションを適用し、精度やセキュリティを損なうことなく証明効率を向上させることで、この問題に対処する。
2) 非線形機能に必要なルックアップテーブルのサイズを最小化するために, ニューラルテレポーテーションにより活性化範囲を最適化し, 活性化関数の範囲を狭める新しい適応法を提案する。
TeleSparseはプロファイラメモリ使用量を67%削減し、同じモデルで証明生成時間を46%削減する。
本研究では,Halo2の証明システムを用いて,複数のアーキテクチャ(Vision-transformer,ResNet,MobileNet)とデータセット(ImageNet,CIFAR-10,CIFAR-100)にまたがる実効性を示す。
この作業は、ZKフレンドリーなモデル設計のための新しい方向性を開放し、スケーラブルでリソース効率の検証可能なディープラーニングへと移行する。
関連論文リスト
- A Low-cost and Ultra-lightweight Binary Neural Network for Traffic Signal Recognition [5.296139403757585]
ハードウェア展開用に設計された超軽量バイナリニューラルネットワーク(BNN)モデルを提案する。
提案モデルでは、97.64%の精度で優れた認識性能を示す。
我々の研究は、コンピュータビジョンモデルのハードウェア展開におけるBNNの大きな可能性を示している。
論文 参考訳(メタデータ) (2025-01-14T03:19:10Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Fast-NTK: Parameter-Efficient Unlearning for Large-Scale Models [17.34908967455907]
マシン・アンラーニング'は、スクラッチから再トレーニングすることなく、不要なデータの選択的削除を提案する。
Fast-NTKはNTKベースの新しいアンラーニングアルゴリズムであり、計算複雑性を大幅に削減する。
論文 参考訳(メタデータ) (2023-12-22T18:55:45Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural Network Inference in Low-Voltage Regimes [50.00272243518593]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は問題の多いままである。
我々は低電圧状態におけるエネルギー精度のトレードオフを処理する新しいアドオンモジュールであるNeuralFuseを開発した。
1%のビットエラー率で、NeuralFuseはアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Binary Neural Networks for Memory-Efficient and Effective Visual Place
Recognition in Changing Environments [24.674034243725455]
視覚的場所認識(VPR)は、視覚データを用いて、ある場所が訪れたかどうかを判断するロボットの能力である。
CNNベースのアプローチは、小さなロボットやドローンのようなリソース制約のあるプラットフォームには適さない。
本稿では,メモリ要求と計算労力を大幅に削減する,超コンパクトモデルの新たなクラスを提案する。
論文 参考訳(メタデータ) (2020-10-01T22:59:34Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Lightweight Residual Densely Connected Convolutional Neural Network [18.310331378001397]
畳み込みニューラルネットワークの深い監督, 効率的な勾配流, 特徴再利用能力を保証するために, 軽量な高密度連結ブロックを提案する。
提案手法は,特別なハードウェア・ソフトウェア機器を使わずに,トレーニングと推論のコストを低減させる。
論文 参考訳(メタデータ) (2020-01-02T17:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。