論文の概要: Towards Privacy-Preserving Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2204.10958v1
- Date: Fri, 22 Apr 2022 23:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:50:15.299734
- Title: Towards Privacy-Preserving Neural Architecture Search
- Title(参考訳): プライバシ保護型ニューラルアーキテクチャ検索を目指して
- Authors: Fuyi Wang and Leo Yu Zhang and Lei Pan and Shengshan Hu and Robin Doss
- Abstract要約: PP-NASは、セキュアなマルチパーティ計算に基づく、プライバシ保護のニューラルネットワーク検索フレームワークである。
PP-NASはNASタスクを2つの非凝固クラウドサーバにアウトソースし、混合プロトコル設計を最大限に活用する。
我々は、Softmaxの指数演算の制限を回避し、精度を向上させながら、秘密共有よりもSoftmax関数を近似する新しい方法を開発した。
- 参考スコア(独自算出の注目度): 7.895707607608013
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning promotes the continuous development of signal processing in
various fields, including network traffic monitoring, EEG classification, face
identification, and many more. However, massive user data collected for
training deep learning models raises privacy concerns and increases the
difficulty of manually adjusting the network structure. To address these
issues, we propose a privacy-preserving neural architecture search (PP-NAS)
framework based on secure multi-party computation to protect users' data and
the model's parameters/hyper-parameters. PP-NAS outsources the NAS task to two
non-colluding cloud servers for making full advantage of mixed protocols
design. Complement to the existing PP machine learning frameworks, we redesign
the secure ReLU and Max-pooling garbled circuits for significantly better
efficiency ($3 \sim 436$ times speed-up). We develop a new alternative to
approximate the Softmax function over secret shares, which bypasses the
limitation of approximating exponential operations in Softmax while improving
accuracy. Extensive analyses and experiments demonstrate PP-NAS's superiority
in security, efficiency, and accuracy.
- Abstract(参考訳): 機械学習は、ネットワークトラフィック監視、EEG分類、顔認証など、さまざまな分野における信号処理の継続的な開発を促進する。
しかし、ディープラーニングモデルのトレーニングのために収集された膨大なユーザデータは、プライバシの懸念を高め、ネットワーク構造を手動で調整することが困難になる。
これらの問題に対処するために,ユーザのデータとモデルのパラメータ/ハイパーパラメータを保護するために,セキュアなマルチパーティ計算に基づくプライバシ保護型ニューラルネットワーク探索(PP-NAS)フレームワークを提案する。
PP-NASはNASタスクを2つの非凝固クラウドサーバにアウトソースし、混合プロトコル設計を最大限に活用する。
既存のPP機械学習フレームワークを補完して、セキュアなReLUとMax-poolingのガーブロード回路を大幅に効率良く再設計する(3 \sim 436$ times speed-up)。
我々は,softmax における指数関数近似の限界を回避し,精度を向上し,秘密共有よりも softmax 関数を近似する新しい手法を開発した。
広範な分析と実験により、pp-nasの安全性、効率、正確性が証明された。
関連論文リスト
- PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Digital Twin-Assisted Data-Driven Optimization for Reliable Edge Caching in Wireless Networks [60.54852710216738]
我々はD-RECと呼ばれる新しいデジタルツインアシスト最適化フレームワークを導入し、次世代無線ネットワークにおける信頼性の高いキャッシュを実現する。
信頼性モジュールを制約付き決定プロセスに組み込むことで、D-RECは、有利な制約に従うために、アクション、報酬、状態を適応的に調整することができる。
論文 参考訳(メタデータ) (2024-06-29T02:40:28Z) - RRNet: Towards ReLU-Reduced Neural Network for Two-party Computation
Based Private Inference [17.299835585861747]
本稿では,MPC比較プロトコルのオーバーヘッドを減らし,ハードウェアアクセラレーションによる計算を高速化するフレームワークRRNetを紹介する。
提案手法は,暗号ビルディングブロックのハードウェア遅延をDNN損失関数に統合し,エネルギー効率,精度,セキュリティ保証を改善する。
論文 参考訳(メタデータ) (2023-02-05T04:02:13Z) - Lightweight Neural Architecture Search for Temporal Convolutional
Networks at the Edge [21.72253397805102]
この研究は特に、時系列処理のための畳み込みモデルであるTCN(Temporal Convolutional Networks)に焦点を当てている。
我々は,TNの最も特異なアーキテクチャパラメータの最適化を明示的に目標とする最初のNASツールを提案する。
提案したNASは,音声および生体信号を含む4つの実世界のエッジ関連タスクでテストする。
論文 参考訳(メタデータ) (2023-01-24T19:47:40Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - GECKO: Reconciling Privacy, Accuracy and Efficiency in Embedded Deep
Learning [5.092028049119383]
NNにおけるIoTデバイスの3次元プライバシ-精度-効率トレードオフを分析します。
設計目的として,私的推論に対する抵抗を明示的に付加するGeckoトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T10:36:55Z) - ESMFL: Efficient and Secure Models for Federated Learning [28.953644581089495]
本稿では,Intel Software Guard Extensions上で運用されるフェデレーション学習分散システムのプライバシ保護手法を提案する。
我々は、スペーシングにより通勤コストを削減し、異なるモデルアーキテクチャで妥当な精度を達成することができる。
論文 参考訳(メタデータ) (2020-09-03T18:27:32Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z) - NASS: Optimizing Secure Inference via Neural Architecture Search [21.72469549507192]
セキュア推論(SI)に特化して設計されたNNアーキテクチャを検索する統合フレームワークであるNASSを提案する。
CIFAR-10データセットでは,予測精度が81.6%から84.6%に向上し,推論ランタイムは2倍,通信帯域幅は1.9倍になった。
論文 参考訳(メタデータ) (2020-01-30T06:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。