論文の概要: A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service
- arxiv url: http://arxiv.org/abs/2003.13541v1
- Date: Mon, 30 Mar 2020 15:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 06:50:59.558338
- Title: A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service
- Title(参考訳): ディープラーニング・アズ・ア・サービスのためのプライバシ保護型分散アーキテクチャ
- Authors: Simone Disabato, Alessandro Falcetta, Alessio Mongelluzzo, Manuel
Roveri
- Abstract要約: 本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
- 参考スコア(独自算出の注目度): 68.84245063902908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep-learning-as-a-service is a novel and promising computing paradigm aiming
at providing machine/deep learning solutions and mechanisms through Cloud-based
computing infrastructures. Thanks to its ability to remotely execute and train
deep learning models (that typically require high computational loads and
memory occupation), such an approach guarantees high performance, scalability,
and availability. Unfortunately, such an approach requires to send information
to be processed (e.g., signals, images, positions, sounds, videos) to the
Cloud, hence having potentially catastrophic-impacts on the privacy of users.
This paper introduces a novel distributed architecture for
deep-learning-as-a-service that is able to preserve the user sensitive data
while providing Cloud-based machine and deep learning services. The proposed
architecture, which relies on Homomorphic Encryption that is able to perform
operations on encrypted data, has been tailored for Convolutional Neural
Networks (CNNs) in the domain of image analysis and implemented through a
client-server REST-based approach. Experimental results show the effectiveness
of the proposed architecture.
- Abstract(参考訳): ディープラーニング・アズ・ア・サービス(Deep-learning-as-a-service)は、クラウドベースのコンピューティングインフラストラクチャを通じて、機械学習ソリューションとメカニズムを提供することを目的とした、新しくて有望なコンピューティングパラダイムである。
ディープラーニングモデル(通常は高い計算負荷とメモリ占有を必要とする)をリモートで実行し、トレーニングする能力のおかげで、このようなアプローチはハイパフォーマンス、スケーラビリティ、可用性を保証する。
残念なことに、このようなアプローチでは、処理される情報(信号、画像、位置、サウンド、ビデオなど)をクラウドに送信する必要があるため、ユーザのプライバシに破滅的な影響を与える可能性がある。
本稿では、クラウドベースの機械学習およびディープラーニングサービスを提供しながら、ユーザのセンシティブなデータを保存できる、ディープラーニング・アズ・ア・サービスのための新しい分散アーキテクチャを提案する。
提案したアーキテクチャは、暗号化されたデータで操作できる同型暗号化に依存しており、画像解析の領域における畳み込みニューラルネットワーク(CNN)用に調整され、クライアントサーバのRESTベースのアプローチで実装されている。
実験の結果,提案手法の有効性が示された。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Integrating Homomorphic Encryption and Trusted Execution Technology for
Autonomous and Confidential Model Refining in Cloud [4.21388107490327]
同型暗号化と信頼性の高い実行環境技術は、自律的な計算の機密性を保護することができる。
モデル精錬方式の設計にこれらの2つの手法を統合することを提案する。
論文 参考訳(メタデータ) (2023-08-02T06:31:41Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Graph Neural Network Training and Inference as a
Cloud Service [15.939214141337803]
SecGNNは、軽量暗号と機械学習技術に関する洞察の相乗効果から構築されている。
SecGNNは、ほぼ手頃な性能で、同等のトレーニングと推論の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-02-16T02:57:10Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Privacy-Preserving Serverless Edge Learning with Decentralized Small
Data [13.254530176359182]
最近、分散トレーニング戦略は、ディープモデルをトレーニングする際のデータプライバシを保証するための有望なアプローチになっている。
本稿では、従来のサーバレスプラットフォームをサーバレスエッジ学習アーキテクチャで拡張し、ネットワークの観点から効率的な分散トレーニングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-11-29T21:04:49Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - FDNAS: Improving Data Privacy and Model Diversity in AutoML [7.402044070683503]
クライアントの分散データからハードウェアを意識したNASを実現するためのFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
メタラーニングにインスパイアされたクライアントのデータ分散をさらに適応させるために、CFDNAS(Federated Direct Neural Architecture Search)フレームワークが提案され、クライアント対応NASを実現する。
論文 参考訳(メタデータ) (2020-11-06T14:13:42Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。