論文の概要: Privacy-Preserving Decentralized Federated Learning via Explainable Adaptive Differential Privacy
- arxiv url: http://arxiv.org/abs/2509.10691v1
- Date: Fri, 12 Sep 2025 20:52:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.731449
- Title: Privacy-Preserving Decentralized Federated Learning via Explainable Adaptive Differential Privacy
- Title(参考訳): 説明可能な適応微分プライバシーによる分散型フェデレーション学習のプライバシ保護
- Authors: Fardin Jalil Piran, Zhiling Chen, Yang Zhang, Qianyu Zhou, Jiong Tang, Farhad Imani,
- Abstract要約: 差別化プライバシは、ノイズを注入することによって原則化された保護を提供するため、機密情報はリソース制限されたIoTデバイス上で安全である。
差分プライバシーで超次元コンピューティングと結合し、累積雑音の監査可能なアカウントを保持する、説明可能なフレームワークであるPrivateDFLを提案する。
PrivateDFLは、IIDおよび非IIDパーティション間の高い精度、低いレイテンシ、低いエネルギを提供すると同時に、正式な(epsilon、delta)保証を保持し、中央サーバなしで運用する。
- 参考スコア(独自算出の注目度): 10.210711754168575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized federated learning faces privacy risks because model updates can leak data through inference attacks and membership inference, a concern that grows over many client exchanges. Differential privacy offers principled protection by injecting calibrated noise so confidential information remains secure on resource-limited IoT devices. Yet without transparency, black-box training cannot track noise already injected by previous clients and rounds, which forces worst-case additions and harms accuracy. We propose PrivateDFL, an explainable framework that joins hyperdimensional computing with differential privacy and keeps an auditable account of cumulative noise so each client adds only the difference between the required noise and what has already been accumulated. We evaluate on MNIST, ISOLET, and UCI-HAR to span image, signal, and tabular modalities, and we benchmark against transformer-based and deep learning-based baselines trained centrally with Differentially Private Stochastic Gradient Descent (DP-SGD) and Renyi Differential Privacy (RDP). PrivateDFL delivers higher accuracy, lower latency, and lower energy across IID and non-IID partitions while preserving formal (epsilon, delta) guarantees and operating without a central server. For example, under non-IID partitions, PrivateDFL achieves 24.42% higher accuracy than the Vision Transformer on MNIST while using about 10x less training time, 76x lower inference latency, and 11x less energy, and on ISOLET it exceeds Transformer accuracy by more than 80% with roughly 10x less training time, 40x lower inference latency, and 36x less training energy. Future work will extend the explainable accounting to adversarial clients and adaptive topologies with heterogeneous privacy budgets.
- Abstract(参考訳): 分散化されたフェデレーション学習は、モデル更新が推論攻撃やメンバシップ推論を通じてデータを漏洩させる可能性があるため、プライバシのリスクに直面します。
差別化プライバシは、キャリブレーションされたノイズを注入することによって原則化された保護を提供するため、機密情報はリソース制限されたIoTデバイス上で安全である。
しかし、透明性がなければ、ブラックボックスのトレーニングは、過去のクライアントやラウンドによって既に注入されたノイズを追跡することができず、最悪のケースの追加を強制し、精度を損なう。
そこで我々は,高次元コンピューティングに差分プライバシを組み込んだ説明可能なフレームワークであるPrivateDFLを提案する。
我々はMNIST, ISOLET, UCI-HARを画像, 信号, 表層モードに当てはめて評価し, 変圧器ベース, 深層学習ベースラインをDP-SGDとRenyi差分プライバシー(Renyi差分プライバシー)で中心的に訓練した。
PrivateDFLは、IIDおよび非IIDパーティション間の高い精度、低いレイテンシ、低いエネルギを提供すると同時に、正式な(epsilon、delta)保証を保持し、中央サーバなしで運用する。
例えば、非IIDパーティションでは、PrivateDFLはMNISTのVision Transformerよりも約10倍のトレーニング時間、76倍の推論レイテンシ、11倍のエネルギーを使用し、ISOLETでは約10倍のトレーニング時間、40倍の推論レイテンシ、36倍のトレーニングエネルギーを使用して24.42%の精度を達成する。
今後の作業は、説明可能な会計を敵のクライアントに拡張し、不均一なプライバシー予算で適応的なトポロジを提供する。
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Providing Differential Privacy for Federated Learning Over Wireless: A Cross-layer Framework [19.381425127772054]
Federated Learning(FL)は、エッジデバイスがローカルなトレーニングデータを維持することができる分散機械学習フレームワークである。
本稿では,分散化された動的電力制御により差分プライバシ(DP)を改善するOTA-FLの無線物理層(PHY)設計を提案する。
この適応は、異なる学習アルゴリズム間で設計の柔軟性と有効性を示しながら、プライバシに強く重点を置いています。
論文 参考訳(メタデータ) (2024-12-05T18:27:09Z) - Clients Collaborate: Flexible Differentially Private Federated Learning with Guaranteed Improvement of Utility-Privacy Trade-off [31.688806024426928]
我々は、厳格なプライバシー保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介した。
スペクトル空間における高周波成分を柔軟に切り離す能力を示す。
我々は、異なるプライバシー設定の下で、大幅なパフォーマンス改善と厳格なプライバシー保証を示す。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。