論文の概要: $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI
- arxiv url: http://arxiv.org/abs/2310.14651v1
- Date: Mon, 23 Oct 2023 07:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 21:49:21.655602
- Title: $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI
- Title(参考訳): $\Lambda$-Split: クラウドで動く生成AIのためのプライバシ保護スプリットコンピューティングフレームワーク
- Authors: Shoki Ohta, Takayuki Nishio
- Abstract要約: 本稿では,計算オフロードを容易にする分割計算フレームワークである$Lambda$-Splitを紹介する。
Lambda$-Splitでは、生成モデル(通常はディープニューラルネットワーク(DNN))が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャにより、隠された層出力のみが送信されることが保証され、プライバシーに敏感な生入力および出力データの外部送信が防止される。
- 参考スコア(独自算出の注目度): 3.363904632882723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the wake of the burgeoning expansion of generative artificial intelligence
(AI) services, the computational demands inherent to these technologies
frequently necessitate cloud-powered computational offloading, particularly for
resource-constrained mobile devices. These services commonly employ prompts to
steer the generative process, and both the prompts and the resultant content,
such as text and images, may harbor privacy-sensitive or confidential
information, thereby elevating security and privacy risks. To mitigate these
concerns, we introduce $\Lambda$-Split, a split computing framework to
facilitate computational offloading while simultaneously fortifying data
privacy against risks such as eavesdropping and unauthorized access. In
$\Lambda$-Split, a generative model, usually a deep neural network (DNN), is
partitioned into three sub-models and distributed across the user's local
device and a cloud server: the input-side and output-side sub-models are
allocated to the local, while the intermediate, computationally-intensive
sub-model resides on the cloud server. This architecture ensures that only the
hidden layer outputs are transmitted, thereby preventing the external
transmission of privacy-sensitive raw input and output data. Given the
black-box nature of DNNs, estimating the original input or output from
intercepted hidden layer outputs poses a significant challenge for malicious
eavesdroppers. Moreover, $\Lambda$-Split is orthogonal to traditional
encryption-based security mechanisms, offering enhanced security when deployed
in conjunction. We empirically validate the efficacy of the $\Lambda$-Split
framework using Llama 2 and Stable Diffusion XL, representative large language
and diffusion models developed by Meta and Stability AI, respectively. Our
$\Lambda$-Split implementation is publicly accessible at
https://github.com/nishio-laboratory/lambda_split.
- Abstract(参考訳): 生成人工知能(AI)サービスの急成長に伴い、これらの技術に固有の計算要求は、特にリソース制約のあるモバイルデバイスにおいて、クラウドによる計算オフロードを必要とすることが多い。
これらのサービスは一般的に、生成プロセスの運営を促すプロンプトを使用し、テキストや画像などのプロンプトと結果のコンテンツの両方がプライバシーに敏感な情報や機密情報を保存し、セキュリティとプライバシーのリスクを高める。
これらの懸念を軽減するために,計算オフロードを容易にする分割コンピューティングフレームワークである$\Lambda$-Splitを導入し,盗聴や不正アクセスなどのリスクに対してデータのプライバシを保護した。
生成モデルである$\Lambda$-Splitでは、通常はディープニューラルネットワーク(DNN)が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャは、隠された層出力のみが送信されることを保証し、プライバシーに敏感な生入力および出力データの外部送信を防止する。
dnnのブラックボックスの性質を考えると、傍受された隠れレイヤ出力から元の入力や出力を推定することは、悪意のある盗聴者にとって大きな課題となる。
さらに$\lambda$-splitは、従来の暗号化ベースのセキュリティメカニズムと直交し、同時にデプロイされた時のセキュリティ強化を提供する。
llama 2 を用いた $\lambda$-split フレームワークの有効性を実証的に検証し,meta と stability ai が開発した代表的な大規模言語モデルである stable diffusion xl の有効性を検証した。
私たちの$\Lambda$-Splitの実装はhttps://github.com/nishio-laboratory/lambda_splitで公開されています。
関連論文リスト
- Split-and-Denoise: Protect large language model inference with local
differential privacy [2.759967237845292]
大規模言語モデル(LLM)は、ベクトル空間に隠されたセマンティクスをキャプチャすることで、自然言語理解において強力な能力を示す。
サーバーへのテキストの直接送信は、プライバシー漏洩の危険性がほとんどない。
SnD(Split-N-Denoise)は、最小の計算コストでクライアント側でトークン埋め込み層を実行するためにモデルを分割する革新的なフレームワークである。
論文 参考訳(メタデータ) (2023-10-13T14:17:33Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - DarKnight: An Accelerated Framework for Privacy and Integrity Preserving
Deep Learning Using Trusted Hardware [3.1853566662905943]
DarKnightは大規模なDNNトレーニングのためのフレームワークで、入力のプライバシと整合性を保護する。
DarKnightは、信頼できる実行環境(TEE)とアクセラレータ間の協調実行に依存している。
DarKnightのデータ難読化戦略は、クラウドサーバにおける証明可能なデータのプライバシと計算の整合性を提供する。
論文 参考訳(メタデータ) (2022-06-30T19:58:36Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Serdab: An IoT Framework for Partitioning Neural Networks Computation
across Multiple Enclaves [8.550865312110911]
Serdabは、複数のセキュアなエンクレーブにディープニューラルネットワークをデプロイするための分散オーケストレーションフレームワークである。
我々のパーティショニング戦略は、ニューラルネットワーク全体を1エンクレーブで実行する場合と比較して最大4.7倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2020-05-12T20:51:47Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z) - Corella: A Private Multi Server Learning Approach based on Correlated
Queries [30.3330177204504]
データプライバシーを保護する代替手段として、$textitCorella$を提案する。
提案手法はサーバのクラスタに依存しており,少なくともmathbbN$のTは,それぞれが学習モデルを実行することでコロードを行うことができる。
ノイズのばらつきは、情報漏洩を最大$T$サーバの任意のサブセットに、理論的に無視できるほど大きく設定されている。
論文 参考訳(メタデータ) (2020-03-26T17:44:00Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。