論文の概要: ObCLIP: Oblivious CLoud-Device Hybrid Image Generation with Privacy Preservation
- arxiv url: http://arxiv.org/abs/2510.04153v1
- Date: Sun, 05 Oct 2025 11:09:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.493082
- Title: ObCLIP: Oblivious CLoud-Device Hybrid Image Generation with Privacy Preservation
- Title(参考訳): ObCLIP: プライバシ保護を備えたクロードデバイスハイブリッド画像生成
- Authors: Haoqi Wu, Wei Dai, Ming Xu, Li Wang, Qiang Yan,
- Abstract要約: ObCLIPは、不愉快なクラウドデバイスハイブリッド生成のためのプラグアンドプレイセーフガードである。
厳格なプライバシと、サーバコストがわずかに向上したクラウドモデルに匹敵するユーティリティを提供する。
- 参考スコア(独自算出の注目度): 9.081441952478306
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Diffusion Models have gained significant popularity due to their remarkable capabilities in image generation, albeit at the cost of intensive computation requirement. Meanwhile, despite their widespread deployment in inference services such as Midjourney, concerns about the potential leakage of sensitive information in uploaded user prompts have arisen. Existing solutions either lack rigorous privacy guarantees or fail to strike an effective balance between utility and efficiency. To bridge this gap, we propose ObCLIP, a plug-and-play safeguard that enables oblivious cloud-device hybrid generation. By oblivious, each input prompt is transformed into a set of semantically similar candidate prompts that differ only in sensitive attributes (e.g., gender, ethnicity). The cloud server processes all candidate prompts without knowing which one is the real one, thus preventing any prompt leakage. To mitigate server cost, only a small portion of denoising steps is performed upon the large cloud model. The intermediate latents are then sent back to the client, which selects the targeted latent and completes the remaining denoising using a small device model. Additionally, we analyze and incorporate several cache-based accelerations that leverage temporal and batch redundancy, effectively reducing computation cost with minimal utility degradation. Extensive experiments across multiple datasets demonstrate that ObCLIP provides rigorous privacy and comparable utility to cloud models with slightly increased server cost.
- Abstract(参考訳): 拡散モデルは、集中的な計算要求のコストにもかかわらず、画像生成において顕著な能力を持つため、大きな人気を集めている。
一方、Midjourneyのような推論サービスに広く展開されているにもかかわらず、アップロードされたユーザープロンプトに機密情報が漏洩する可能性があるという懸念が持ち上がっている。
既存のソリューションには厳格なプライバシー保証がないか、ユーティリティと効率のバランスが取れない。
このギャップを埋めるため,プラグイン・アンド・プレイのセーフガードであるObCLIPを提案する。
暗黙的に、各入力プロンプトは、センシティブな属性(例えば、性別、民族性)だけが異なる意味的に類似した候補プロンプトのセットに変換される。
クラウドサーバは、どのプロンプトが本物であるかを知らずに全ての候補プロンプトを処理し、即時リークを防止する。
サーバコストを軽減するため、大規模なクラウドモデルでは、デノナイジングステップのごく一部しか実行されない。
中間ラテントはクライアントに送信され、ターゲットのラテントを選択し、小さなデバイスモデルを使用して残りのデノナイズを完了させる。
さらに、時間的およびバッチの冗長性を生かしたキャッシュベースのアクセラレーションを解析し、導入し、実用性を最小限に抑えて計算コストを効果的に削減する。
複数のデータセットにわたる大規模な実験は、ObCLIPが厳格なプライバシと、サーバコストがわずかに増加するクラウドモデルに匹敵するユーティリティを提供することを示している。
関連論文リスト
- Practical and Private Hybrid ML Inference with Fully Homomorphic Encryption [0.34953784594970894]
Safhireはハイブリッド推論フレームワークで、サーバ上で暗号化されたリニアレイヤを実行する。
正確なアクティベーションをサポートし、計算を大幅に削減する。
Orionよりも1.5倍から10.5倍低い推論レイテンシを実現している。
論文 参考訳(メタデータ) (2025-09-01T08:43:46Z) - EC-Diff: Fast and High-Quality Edge-Cloud Collaborative Inference for Diffusion Models [57.059991285047296]
高速な推論と高品質な生成を実現するために,ハイブリッドエッジクラウドコラボレーションフレームワークが最近提案されている。
過度の雲が推論時間を延ばす一方、不十分なステップは意味的な曖昧さを引き起こし、エッジモデルの出力の不整合を引き起こす。
勾配に基づく雑音推定により雲の推測を高速化するEC-Diffを提案する。
提案手法は, エッジ推定に比べて生成品質を著しく向上する一方で, クラウド推定に比べて平均2倍の速度アップを達成できる。
論文 参考訳(メタデータ) (2025-07-16T07:23:14Z) - Fast and Cost-effective Speculative Edge-Cloud Decoding with Early Exits [11.398891065175686]
大型言語モデル(LLM)は、スマートフォン、ウェアラブル、エンボディロボットなどのエッジデバイス上の様々なアプリケーションを可能にする。
LLMはデバイス上でデプロイ可能で、レイテンシを低減し、プライバシを改善したコスト効率の高いソリューションを提供する。
本稿では,サーバ上での大きなターゲットモデルとデバイス上での小さなドラフトモデルを備えた,高速で費用対効果の高いエッジクラウドデコーディングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-27T14:55:16Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [49.77734021302196]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI [3.363904632882723]
本稿では,計算オフロードを容易にする分割計算フレームワークである$Lambda$-Splitを紹介する。
Lambda$-Splitでは、生成モデル(通常はディープニューラルネットワーク(DNN))が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャにより、隠された層出力のみが送信されることが保証され、プライバシーに敏感な生入力および出力データの外部送信が防止される。
論文 参考訳(メタデータ) (2023-10-23T07:44:04Z) - Mobile-Cloud Inference for Collaborative Intelligence [3.04585143845864]
ディープラーニングモデル推論の高速化と省エネの必要性が高まっている。
歴史的に、モバイルデバイス上で実行されるモデルは、クラウド上でしか実行できない大規模な最先端の研究モデルと比較して、小さく、よりシンプルである。
クラウドのみの推論では、ネットワーク帯域幅の消費の増加やレイテンシの向上といった欠点がある。
別のアプローチとして、共有モバイルクラウド推論がある。
論文 参考訳(メタデータ) (2023-06-24T14:22:53Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - DUET: A Tuning-Free Device-Cloud Collaborative Parameters Generation Framework for Efficient Device Model Generalization [66.27399823422665]
デバイスモデル一般化(Device Model Generalization, DMG)は、デバイス上での機械学習アプリケーションにおいて、実用的ながら実証されていない研究トピックである。
本稿では,Device-cloUdコラボレーティブパラメトリクスフレームワークDUETを提案する。
論文 参考訳(メタデータ) (2022-09-12T13:26:26Z) - Shared Mobile-Cloud Inference for Collaborative Intelligence [35.103437828235826]
ニューラルモデル推論のための共有モバイルクラウド推論手法を提案する。
この戦略は、推論レイテンシ、エネルギー消費、ネットワーク帯域使用量を改善することができる。
伝送前に特徴テンソルを圧縮することにより、さらなる性能向上を実現することができる。
論文 参考訳(メタデータ) (2020-02-01T07:12:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。