論文の概要: $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI
- arxiv url: http://arxiv.org/abs/2310.14651v1
- Date: Mon, 23 Oct 2023 07:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 21:49:21.655602
- Title: $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI
- Title(参考訳): $\Lambda$-Split: クラウドで動く生成AIのためのプライバシ保護スプリットコンピューティングフレームワーク
- Authors: Shoki Ohta, Takayuki Nishio
- Abstract要約: 本稿では,計算オフロードを容易にする分割計算フレームワークである$Lambda$-Splitを紹介する。
Lambda$-Splitでは、生成モデル(通常はディープニューラルネットワーク(DNN))が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャにより、隠された層出力のみが送信されることが保証され、プライバシーに敏感な生入力および出力データの外部送信が防止される。
- 参考スコア(独自算出の注目度): 3.363904632882723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the wake of the burgeoning expansion of generative artificial intelligence
(AI) services, the computational demands inherent to these technologies
frequently necessitate cloud-powered computational offloading, particularly for
resource-constrained mobile devices. These services commonly employ prompts to
steer the generative process, and both the prompts and the resultant content,
such as text and images, may harbor privacy-sensitive or confidential
information, thereby elevating security and privacy risks. To mitigate these
concerns, we introduce $\Lambda$-Split, a split computing framework to
facilitate computational offloading while simultaneously fortifying data
privacy against risks such as eavesdropping and unauthorized access. In
$\Lambda$-Split, a generative model, usually a deep neural network (DNN), is
partitioned into three sub-models and distributed across the user's local
device and a cloud server: the input-side and output-side sub-models are
allocated to the local, while the intermediate, computationally-intensive
sub-model resides on the cloud server. This architecture ensures that only the
hidden layer outputs are transmitted, thereby preventing the external
transmission of privacy-sensitive raw input and output data. Given the
black-box nature of DNNs, estimating the original input or output from
intercepted hidden layer outputs poses a significant challenge for malicious
eavesdroppers. Moreover, $\Lambda$-Split is orthogonal to traditional
encryption-based security mechanisms, offering enhanced security when deployed
in conjunction. We empirically validate the efficacy of the $\Lambda$-Split
framework using Llama 2 and Stable Diffusion XL, representative large language
and diffusion models developed by Meta and Stability AI, respectively. Our
$\Lambda$-Split implementation is publicly accessible at
https://github.com/nishio-laboratory/lambda_split.
- Abstract(参考訳): 生成人工知能(AI)サービスの急成長に伴い、これらの技術に固有の計算要求は、特にリソース制約のあるモバイルデバイスにおいて、クラウドによる計算オフロードを必要とすることが多い。
これらのサービスは一般的に、生成プロセスの運営を促すプロンプトを使用し、テキストや画像などのプロンプトと結果のコンテンツの両方がプライバシーに敏感な情報や機密情報を保存し、セキュリティとプライバシーのリスクを高める。
これらの懸念を軽減するために,計算オフロードを容易にする分割コンピューティングフレームワークである$\Lambda$-Splitを導入し,盗聴や不正アクセスなどのリスクに対してデータのプライバシを保護した。
生成モデルである$\Lambda$-Splitでは、通常はディープニューラルネットワーク(DNN)が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャは、隠された層出力のみが送信されることを保証し、プライバシーに敏感な生入力および出力データの外部送信を防止する。
dnnのブラックボックスの性質を考えると、傍受された隠れレイヤ出力から元の入力や出力を推定することは、悪意のある盗聴者にとって大きな課題となる。
さらに$\lambda$-splitは、従来の暗号化ベースのセキュリティメカニズムと直交し、同時にデプロイされた時のセキュリティ強化を提供する。
llama 2 を用いた $\lambda$-split フレームワークの有効性を実証的に検証し,meta と stability ai が開発した代表的な大規模言語モデルである stable diffusion xl の有効性を検証した。
私たちの$\Lambda$-Splitの実装はhttps://github.com/nishio-laboratory/lambda_splitで公開されています。
関連論文リスト
- Secure Multiparty Generative AI [1.4433703131122861]
生成的AIツールの使用が急上昇するにつれ、これらのモデルに暴露される機密情報の量は警告される。
本研究では、サードパーティのAIプロバイダに機密データやモデルを公開しない、生成人工知能のためのセキュアでプライベートな方法論を提案する。
論文 参考訳(メタデータ) (2024-09-27T19:55:49Z) - CURE: Privacy-Preserving Split Learning Done Right [1.388112207221632]
このシナリオには、同型暗号化(HE)ベースのソリューションが存在するが、しばしば禁止的な計算負担を課す。
CUREは、モデルとデータのサーバ側のみを暗号化する新しいシステムである。
CUREは、実行時の16倍の効率で、平文SLと同等の精度を実現できることを示す。
論文 参考訳(メタデータ) (2024-07-12T04:10:19Z) - Privacy preserving layer partitioning for Deep Neural Network models [0.21470800327528838]
Trusted Execution Environments (TEEs)は、暗号化、復号化、セキュリティ、整合性チェックなどの追加レイヤによって、大幅なパフォーマンスオーバーヘッドを発生させることができる。
我々はGPUに層分割技術とオフロード計算を導入する。
我々は、訓練された条件付き生成逆数ネットワーク(c-GAN)を用いた入力再構成攻撃の防御におけるアプローチの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T02:39:48Z) - HasTEE+ : Confidential Cloud Computing and Analytics with Haskell [50.994023665559496]
信頼性コンピューティングは、Trusted Execution Environments(TEEs)と呼ばれる特別なハードウェア隔離ユニットを使用して、コテナントクラウドデプロイメントにおける機密コードとデータの保護を可能にする。
低レベルのC/C++ベースのツールチェーンを提供するTEEは、固有のメモリ安全性の脆弱性の影響を受けやすく、明示的で暗黙的な情報フローのリークを監視するための言語構造が欠如している。
私たちは、Haskellに埋め込まれたドメイン固有言語(cla)であるHasTEE+を使って、上記の問題に対処します。
論文 参考訳(メタデータ) (2024-01-17T00:56:23Z) - Split-and-Denoise: Protect large language model inference with local differential privacy [2.572566198588905]
Split-N-Denoise (SnD) はプライベートな推論フレームワークであり、最小の計算コストでクライアント側でトークン埋め込み層を実行するためにモデルを分割する。
各種LLMアーキテクチャおよび下流タスク間のプライバシ・ユーティリティ・トレードオフを最適化する上で,SnDの有効性を示す。
論文 参考訳(メタデータ) (2023-10-13T14:17:33Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Dynamic Split Computing for Efficient Deep Edge Intelligence [78.4233915447056]
通信チャネルの状態に基づいて最適な分割位置を動的に選択する動的分割計算を導入する。
本研究では,データレートとサーバ負荷が時間とともに変化するエッジコンピューティング環境において,動的スプリットコンピューティングが高速な推論を実現することを示す。
論文 参考訳(メタデータ) (2022-05-23T12:35:18Z) - Serdab: An IoT Framework for Partitioning Neural Networks Computation
across Multiple Enclaves [8.550865312110911]
Serdabは、複数のセキュアなエンクレーブにディープニューラルネットワークをデプロイするための分散オーケストレーションフレームワークである。
我々のパーティショニング戦略は、ニューラルネットワーク全体を1エンクレーブで実行する場合と比較して最大4.7倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2020-05-12T20:51:47Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。