論文の概要: DP-EMAR: A Differentially Private Framework for Autonomous Model Weight Repair in Federated IoT Systems
- arxiv url: http://arxiv.org/abs/2512.13460v1
- Date: Mon, 15 Dec 2025 15:56:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.735781
- Title: DP-EMAR: A Differentially Private Framework for Autonomous Model Weight Repair in Federated IoT Systems
- Title(参考訳): DP-EMAR: フェデレーションIoTシステムにおける自律的モデルウェイト修復のための微分プライベートフレームワーク
- Authors: Chethana Prasad Kabgere, Shylaja S S,
- Abstract要約: Federated Learning (FL)は、生データを共有することなく、分散モデルトレーニングを可能にする。
多層フェデレーションIoT(Fed-IoT)システムでは、不安定な接続性と敵の干渉は、送信されたパラメータを静かに変更することができる。
本稿では,差分的にプライベートなエラーモデルに基づく自律修復フレームワークDP-EMARを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning (FL) enables decentralized model training without sharing raw data, but model weight distortion remains a major challenge in resource constrained IoT networks. In multi tier Federated IoT (Fed-IoT) systems, unstable connectivity and adversarial interference can silently alter transmitted parameters, degrading convergence. We propose DP-EMAR, a differentially private, error model based autonomous repair framework that detects and reconstructs transmission induced distortions during FL aggregation. DP-EMAR estimates corruption patterns and applies adaptive correction before privacy noise is added, enabling reliable in network repair without violating confidentiality. By integrating Differential Privacy (DP) with Secure Aggregation (SA), the framework distinguishes DP noise from genuine transmission errors. Experiments on heterogeneous IoT sensor and graph datasets show that DP-EMAR preserves convergence stability and maintains near baseline performance under communication corruption while ensuring strict (epsilon, delta)-DP guarantees. The framework enhances robustness, communication efficiency, and trust in privacy preserving Federated IoT learning.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに分散モデルトレーニングを可能にするが、リソースに制約のあるIoTネットワークでは、モデルウェイト歪みが大きな課題である。
多層フェデレーションIoT(Fed-IoT)システムでは、不安定な接続性と敵の干渉は、送信されたパラメータを静かに変更し、収束を低下させる。
本稿では,FLアグリゲーション中の透過誘起歪みを検出し,再構成する,差分プライベートなエラーモデルに基づく自律修復フレームワークDP-EMARを提案する。
DP-EMARは破損パターンを推定し、プライバシノイズが付加される前に適応補正を適用する。
差分プライバシー(DP)とセキュアアグリゲーション(SA)を統合することにより、DPノイズと真の送信エラーを区別する。
不均一なIoTセンサとグラフデータセットの実験により、DP-EMARはコンバージェンス安定性を保ち、通信破損時のほぼベースライン性能を維持しつつ、厳密な(エピシロン、デルタ)-DP保証を確保していることが示された。
このフレームワークは、フェデレートされたIoT学習を保護して、堅牢性、通信効率、プライバシに対する信頼を高める。
関連論文リスト
- ZTFed-MAS2S: A Zero-Trust Federated Learning Framework with Verifiable Privacy and Trust-Aware Aggregation for Wind Power Data Imputation [8.934430272818048]
風力データは、センサの故障やエッジでの不安定な送信によって、しばしば欠落する値に悩まされる。
ZTFed-MAS2Sは、シーケンス・ツー・シーケンス・インプット・モデルを統合するゼロトラスト・フェデレーション学習フレームワークである。
ZTFed-MAS2Sのフェデレーション学習性能と欠落データ計算における優位性を実世界の風力発電データセットで検証した。
論文 参考訳(メタデータ) (2025-08-24T01:50:58Z) - Enhancing Privacy in Semantic Communication over Wiretap Channels leveraging Differential Privacy [51.028047763426265]
セマンティック通信(SemCom)は,タスク関連情報に着目して伝送効率を向上させる。
セマンティックリッチなデータをセキュアでないチャネルで送信すると、プライバシのリスクが生じる。
本稿では,セマンティックなセマンティックな特徴を保護するために,差分プライバシー機構を統合した新しいSemComフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-23T08:42:44Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Communication and Energy Efficient Wireless Federated Learning with
Intrinsic Privacy [16.305837225117603]
Federated Learning(FL)は、エッジデバイスが生データをローカルに保持しながら、グローバルモデルを共同で学習することを可能にする、協調学習フレームワークである。
本研究では,PFELS(Private Edge Learning with Spars)と呼ばれる新しい無線FL方式を提案する。
論文 参考訳(メタデータ) (2023-04-15T03:04:11Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Federated Learning with Sparsified Model Perturbation: Improving
Accuracy under Client-Level Differential Privacy [27.243322019117144]
フェデレートラーニング(FL)は、分散クライアントが共同で共有統計モデルを学ぶことを可能にする。
トレーニングデータに関するセンシティブな情報は、FLで共有されたモデル更新から推測することができる。
差別化プライバシ(DP)は、これらの攻撃を防御するための最先端技術である。
本稿では,モデル精度を維持しつつ,クライアントレベルのDP保証を実現する新しいFLスキームであるFed-SMPを開発した。
論文 参考訳(メタデータ) (2022-02-15T04:05:42Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。