論文の概要: From Split to Share: Private Inference with Distributed Feature Sharing
- arxiv url: http://arxiv.org/abs/2508.04346v1
- Date: Wed, 06 Aug 2025 11:41:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.696443
- Title: From Split to Share: Private Inference with Distributed Feature Sharing
- Title(参考訳): SplitからShareへ - 分散型機能共有によるプライベート推論
- Authors: Zihan Liu, Jiayi Wen, Shouhong Tan, Zhirun Zheng, Cheng Huang,
- Abstract要約: クラウドベースの機械学習・アズ・ア・サービス(ML)は、機密性の高いクライアントデータを扱う際に深刻なプライバシー上の懸念を引き起こす。
単一露出表現を分散特徴共有に置き換える,プライベート推論のための新しいパラダイムであるPrivDFSを提案する。
PrivDFSはクライアント上の入力機能を複数のバランスの取れた共有に分割する。
- 参考スコア(独自算出の注目度): 8.103701420776487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud-based Machine Learning as a Service (MLaaS) raises serious privacy concerns when handling sensitive client data. Existing Private Inference (PI) methods face a fundamental trade-off between privacy and efficiency: cryptographic approaches offer strong protection but incur high computational overhead, while efficient alternatives such as split inference expose intermediate features to inversion attacks. We propose PrivDFS, a new paradigm for private inference that replaces a single exposed representation with distributed feature sharing. PrivDFS partitions input features on the client into multiple balanced shares, which are distributed to non-colluding, non-communicating servers for independent partial inference. The client securely aggregates the servers' outputs to reconstruct the final prediction, ensuring that no single server observes sufficient information to compromise input privacy. To further strengthen privacy, we propose two key extensions: PrivDFS-AT, which uses adversarial training with a diffusion-based proxy attacker to enforce inversion-resistant feature partitioning, and PrivDFS-KD, which leverages user-specific keys to diversify partitioning policies and prevent query-based inversion generalization. Experiments on CIFAR-10 and CelebA demonstrate that PrivDFS achieves privacy comparable to deep split inference while cutting client computation by up to 100 times with no accuracy loss, and that the extensions remain robust against both diffusion-based in-distribution and adaptive attacks.
- Abstract(参考訳): クラウドベースの機械学習・アズ・ア・サービス(MLaaS)は、機密性の高いクライアントデータを扱う際の深刻なプライバシー上の懸念を提起する。
既存のプライベート推論(PI)メソッドは、プライバシーと効率の基本的なトレードオフに直面している。暗号化アプローチは強力な保護を提供するが、高い計算オーバーヘッドを発生させる。
単一露出表現を分散特徴共有に置き換える,プライベート推論のための新しいパラダイムであるPrivDFSを提案する。
PrivDFSはクライアント上の入力機能を複数のバランスの取れた共有に分割する。
クライアントはサーバの出力を安全に集約し、最終的な予測を再構築する。
プライバシをさらに強化するために、拡散ベースのプロキシアタックと敵対的トレーニングを用いてインバージョン耐性機能パーティショニングを強制するPrivDFS-ATと、ユーザ固有のキーを活用してパーティショニングポリシを多様化し、クエリベースのインバージョン一般化を防止するPrivDFS-KDという2つの重要な拡張を提案する。
CIFAR-10とCelebAの実験では、PrivDFSはクライアント計算を100倍までカットしながら、深い分割推論に匹敵するプライバシーを達成している。
関連論文リスト
- Privacy-preserving Prompt Personalization in Federated Learning for Multimodal Large Language Models [12.406403248205285]
フェデレート・プロンプト・パーソナライゼーション(FPP)は、データの均一性と局所的なオーバーフィッティングに対処するために開発された。
我々は、パーソナライゼーションとプライバシ保証を調和させるセキュアなFPPプロトコルSecFPPを提案する。
SecFPPは、プライバシ保護ベースラインと非プライバシ保護ベースラインの両方で著しく優れています。
論文 参考訳(メタデータ) (2025-05-28T15:09:56Z) - Federated Learning With Individualized Privacy Through Client Sampling [2.0432201743624456]
フェデレートラーニング(FL)における個別微分プライバシー(IDP)を実現するための適応的手法を提案する。
我々は、不均一なプライバシー予算に基づいてクライアント固有のサンプリングレートを計算し、修正IDP-FedAvgアルゴリズムに統合する。
実験の結果,DPベースラインの統一化により,プライバシとユーティリティのトレードオフを低減できることがわかった。
論文 参考訳(メタデータ) (2025-01-29T13:11:21Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Federated Instruction Tuning of LLMs with Domain Coverage Augmentation [87.49293964617128]
Federated Domain-specific Instruction Tuning (FedDIT)は、限られたクロスクライアントなプライベートデータと、命令拡張のさまざまな戦略を利用する。
我々は,欲求のあるクライアントセンターの選択と検索に基づく拡張を通じて,ドメインカバレッジを最適化するFedDCAを提案する。
クライアント側の計算効率とシステムのスケーラビリティのために、FedDCAの変種であるFedDCA$*$はサーバ側の特徴アライメントを備えた異種エンコーダを利用する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Segmented Private Data Aggregation in the Multi-message Shuffle Model [9.298982907061099]
我々は、差分プライバシーのマルチメッセージシャッフルモデルにおいて、セグメント化されたプライベートデータアグリゲーションの研究を開拓した。
当社のフレームワークでは,ユーザに対するフレキシブルなプライバシ保護と,アグリゲーションサーバのための拡張ユーティリティを導入している。
提案手法は,既存手法と比較して推定誤差を約50%削減する。
論文 参考訳(メタデータ) (2024-07-29T01:46:44Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Declarative Privacy-Preserving Inference Queries [21.890318255305026]
プライバシ保存型推論クエリを自動化するためのエンドツーエンドワークフローを提案する。
提案した宣言型プライバシ保護ワークフローでは,ユーザが“保護方法”ではなく,“保護すべきプライベート情報”を指定することが可能になった。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。