論文の概要: P3SL: Personalized Privacy-Preserving Split Learning on Heterogeneous Edge Devices
- arxiv url: http://arxiv.org/abs/2507.17228v2
- Date: Tue, 05 Aug 2025 02:08:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 15:23:34.675788
- Title: P3SL: Personalized Privacy-Preserving Split Learning on Heterogeneous Edge Devices
- Title(参考訳): P3SL: 異種エッジデバイス上でのパーソナライズされたプライバシ保護スプリット学習
- Authors: Wei Fan, JinYi Yoon, Xiaochang Li, Huajie Shao, Bo Ji,
- Abstract要約: Split Learning (SL)は、モデルをクライアントサイドとサーバサイドのサブモデルに分割することで、リソース制約のあるエッジデバイスがモデルトレーニングに参加することを可能にする。
SLは、デバイスがコンピューティングリソース、通信能力、環境条件、プライバシ要件などによって異なる異種環境において、重大な課題に直面している。
異種・リソース制約のあるエッジデバイスシステム向けに設計されたパーソナライズドプライバシ保護スプリット学習フレームワークであるP3SLを提案する。
- 参考スコア(独自算出の注目度): 12.821321451464081
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split Learning (SL) is an emerging privacy-preserving machine learning technique that enables resource constrained edge devices to participate in model training by partitioning a model into client-side and server-side sub-models. While SL reduces computational overhead on edge devices, it encounters significant challenges in heterogeneous environments where devices vary in computing resources, communication capabilities, environmental conditions, and privacy requirements. Although recent studies have explored heterogeneous SL frameworks that optimize split points for devices with varying resource constraints, they often neglect personalized privacy requirements and local model customization under varying environmental conditions. To address these limitations, we propose P3SL, a Personalized Privacy-Preserving Split Learning framework designed for heterogeneous, resource-constrained edge device systems. The key contributions of this work are twofold. First, we design a personalized sequential split learning pipeline that allows each client to achieve customized privacy protection and maintain personalized local models tailored to their computational resources, environmental conditions, and privacy needs. Second, we adopt a bi-level optimization technique that empowers clients to determine their own optimal personalized split points without sharing private sensitive information (i.e., computational resources, environmental conditions, privacy requirements) with the server. This approach balances energy consumption and privacy leakage risks while maintaining high model accuracy. We implement and evaluate P3SL on a testbed consisting of 7 devices including 4 Jetson Nano P3450 devices, 2 Raspberry Pis, and 1 laptop, using diverse model architectures and datasets under varying environmental conditions.
- Abstract(参考訳): Split Learning(SL)は、リソース制約のあるエッジデバイスが、モデルをクライアントサイドとサーバサイドのサブモデルに分割することで、モデルトレーニングに参加することを可能にする、新たなプライバシ保護機械学習技術である。
SLはエッジデバイス上での計算オーバーヘッドを低減するが、コンピューティングリソース、通信能力、環境条件、プライバシー要件など、デバイスが異なる異種環境において大きな課題に直面する。
近年の研究では、リソース制約の異なるデバイスに対して分割ポイントを最適化する異種SLフレームワークについて検討されているが、パーソナライズされたプライバシ要件や、環境条件の異なるローカルモデルカスタマイズは無視されることが多い。
これらの制約に対処するため、P3SLは、異質なリソース制約のあるエッジデバイスシステム用に設計されたパーソナライズドプライバシ保護スプリットラーニングフレームワークである。
この研究の主な貢献は2つある。
まず、各クライアントがカスタマイズされたプライバシ保護を実現し、計算資源、環境条件、プライバシニーズに合わせたパーソナライズされたローカルモデルを維持するためのパーソナライズされたシーケンシャルな分割学習パイプラインを設計する。
第2に、クライアントがプライベートな機密情報(計算資源、環境条件、プライバシー要件など)をサーバと共有することなく、最適なパーソナライズされたスプリットポイントを決定できるようにする二段階最適化手法を採用する。
このアプローチは、高いモデル精度を維持しながら、エネルギー消費とプライバシー漏洩リスクのバランスをとる。
4つのJetson Nano P3450デバイス、2つのRaspberry Pi、1つのラップトップを含む7つのデバイスからなるテストベッド上で、多様なモデルアーキテクチャと環境条件下でのデータセットを使用してP3SLを実装し、評価する。
関連論文リスト
- CoSteer: Collaborative Decoding-Time Personalization via Local Delta Steering [68.91862701376155]
CoSteerは、ローカライズされたデルタステアリングを通じてデコード時のパーソナライズを可能にする、新しいコラボレーティブフレームワークである。
トークンレベルの最適化をオンライン学習問題として定式化し、ローカルデルタベクトルがリモートLLMのロジットを動的に調整する。
このアプローチは、生のデータや中間ベクトルではなく、最後のステアリングトークンのみを送信することで、プライバシを保護します。
論文 参考訳(メタデータ) (2025-07-07T08:32:29Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Privacy-preserving Prompt Personalization in Federated Learning for Multimodal Large Language Models [12.406403248205285]
フェデレート・プロンプト・パーソナライゼーション(FPP)は、データの均一性と局所的なオーバーフィッティングに対処するために開発された。
我々は、パーソナライゼーションとプライバシ保証を調和させるセキュアなFPPプロトコルSecFPPを提案する。
SecFPPは、プライバシ保護ベースラインと非プライバシ保護ベースラインの両方で著しく優れています。
論文 参考訳(メタデータ) (2025-05-28T15:09:56Z) - Multi-Objective Optimization for Privacy-Utility Balance in Differentially Private Federated Learning [12.278668095136098]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
本稿では,多目的最適化フレームワークを用いて動的にクリッピング規範を調整する適応型クリッピング機構を提案する。
以上の結果から,適応的クリッピングは固定クリッピングベースラインを一貫して上回り,同一のプライバシー制約下での精度の向上を実現している。
論文 参考訳(メタデータ) (2025-03-27T04:57:05Z) - TinyML NLP Scheme for Semantic Wireless Sentiment Classification with Privacy Preservation [49.801175302937246]
本研究は、エッジデバイスにプライバシ保護、エネルギー効率の高いNLPモデルをデプロイする際の洞察を提供する。
セマンティックスプリットラーニング(SL)を,エネルギー効率,プライバシ保護,小型機械学習(TinyML)フレームワークとして導入する。
その結果,FLの4倍,CLの約18倍の再現誤差の増加により,SLは計算能力とCO2排出量を著しく低減し,プライバシーの向上を図った。
論文 参考訳(メタデータ) (2024-11-09T21:26:59Z) - Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - FedP3: Federated Personalized and Privacy-friendly Network Pruning under Model Heterogeneity [82.5448598805968]
我々は、フェデレートされたパーソナライズされたプライバシフレンドリーなネットワークプルーニングを表現する、効果的で適応可能なフェデレーションフレームワークであるFedP3を提案する。
我々は、FedP3とその局所微分プライベート変種DP-FedP3の理論解釈を提供し、それらの効率を理論的に検証する。
論文 参考訳(メタデータ) (2024-04-15T14:14:05Z) - Libertas: Privacy-Preserving Collective Computation for Decentralised Personal Data Stores [18.91869691495181]
モジュールアーキテクチャであるLibertasを導入し、MPCとSolidのようなPSDを統合する。
我々は、全知的な視点から、個人ベースの、ユーザ中心の信頼とセキュリティへのパラダイムシフトを紹介します。
論文 参考訳(メタデータ) (2023-09-28T12:07:40Z) - Evaluating Privacy Leakage in Split Learning [8.841387955312669]
オンデバイス機械学習は、推論中にサードパーティサーバと生データを共有しないようにする。
Split Learning(SL)は、制限を克服できる有望なアプローチである。
SLでは、大きな機械学習モデルが2つの部分に分割され、大きな部分はサーバ側にあり、小さな部分はデバイス上で実行される。
論文 参考訳(メタデータ) (2023-05-22T13:00:07Z) - P4L: Privacy Preserving Peer-to-Peer Learning for Infrastructureless
Setups [5.601217969637838]
P4Lは、ユーザが非同期で協調的な学習スキームに参加するための、プライバシ保護のためのピアツーピア学習システムである。
私たちの設計では、共有勾配の秘密性と実用性の両方を維持するために、強力な暗号プリミティブを使用します。
論文 参考訳(メタデータ) (2023-02-26T23:30:18Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。