論文の概要: DPFNAS: Differential Privacy-Enhanced Federated Neural Architecture Search for 6G Edge Intelligence
- arxiv url: http://arxiv.org/abs/2509.23030v1
- Date: Sat, 27 Sep 2025 01:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.994323
- Title: DPFNAS: Differential Privacy-Enhanced Federated Neural Architecture Search for 6G Edge Intelligence
- Title(参考訳): DPFNAS: 6Gエッジインテリジェンスのための差分プライバシー強化フェデレーションニューラルネットワーク検索
- Authors: Yang Lv, Jin Cao, Ben Niu, Zhe Sun, Fengwei Wang, Fenghua Li, Hui Li,
- Abstract要約: 本稿では,パーソナライズド・ディファレンシャル・プライバシ(DP)と適応モデル設計を統合した新しいフェデレーション学習フレームワークを提案する。
提案手法は,トレーニングデータに対する強力なプライバシ保証を実現すると同時に,モデル性能における最先端手法を大幅に上回る。
- 参考スコア(独自算出の注目度): 23.831063160844092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Sixth-Generation (6G) network envisions pervasive artificial intelligence (AI) as a core goal, enabled by edge intelligence through on-device data utilization. To realize this vision, federated learning (FL) has emerged as a key paradigm for collaborative training across edge devices. However, the sensitivity and heterogeneity of edge data pose key challenges to FL: parameter sharing risks data reconstruction, and a unified global model struggles to adapt to diverse local distributions. In this paper, we propose a novel federated learning framework that integrates personalized differential privacy (DP) and adaptive model design. To protect training data, we leverage sample-level representations for knowledge sharing and apply a personalized DP strategy to resist reconstruction attacks. To ensure distribution-aware adaptation under privacy constraints, we develop a privacy-aware neural architecture search (NAS) algorithm that generates locally customized architectures and hyperparameters. To the best of our knowledge, this is the first personalized DP solution tailored for representation-based FL with theoretical convergence guarantees. Our scheme achieves strong privacy guarantees for training data while significantly outperforming state-of-the-art methods in model performance. Experiments on benchmark datasets such as CIFAR-10 and CIFAR-100 demonstrate that our scheme improves accuracy by 6.82\% over the federated NAS method PerFedRLNAS, while reducing model size to 1/10 and communication cost to 1/20.
- Abstract(参考訳): 6G(Sixth-Generation)ネットワークは、デバイス上のデータ利用を通じてエッジインテリジェンスによって実現される、広汎な人工知能(AI)をコア目標として想定している。
このビジョンを実現するために、フェデレートラーニング(FL)がエッジデバイス間の協調トレーニングの重要なパラダイムとして登場した。
しかし、エッジデータの感度と不均一性はFLにとって重要な課題である:パラメータ共有はデータ再構成を危険にさらす。
本稿では,パーソナライズド・ディファレンシャル・プライバシ(DP)と適応モデル設計を統合した新しいフェデレーション学習フレームワークを提案する。
トレーニングデータを保護するため,知識共有にサンプルレベルの表現を活用し,パーソナライズされたDP戦略を適用してリコンストラクション攻撃に抵抗する。
プライバシ制約下での分散適応を保証するため,ローカルにカスタマイズされたアーキテクチャとハイパーパラメータを生成するプライバシ対応ニューラルアーキテクチャサーチ(NAS)アルゴリズムを開発した。
我々の知る限りでは、これは理論収束を保証する表現ベースFLに適したパーソナライズされたDPソリューションとしては初めてである。
提案手法は,トレーニングデータに対する強力なプライバシ保証を実現すると同時に,モデル性能における最先端手法を大幅に上回る。
CIFAR-10 や CIFAR-100 などのベンチマークデータを用いた実験では,フェデレートNAS法 PerFedRLNAS よりも精度が 6.82 % 向上し,モデルサイズを 1/10 に,通信コストを 1/20 に削減した。
関連論文リスト
- FedRP: A Communication-Efficient Approach for Differentially Private Federated Learning Using Random Projection [1.4552744016611232]
フェデレートラーニング(FL)は、分散デバイス間の協調モデルトレーニングのための革新的なパラダイムを提供する。
その利点にもかかわらず、FLは潜在的な攻撃に対するユーザーのプライバシー保護と通信コストの管理に関する課題に直面している。
本稿では,FedRPと呼ばれる新しいフェデレーション学習アルゴリズムを提案する。このアルゴリズムは,ランダムプロジェクション手法とALMM(Alternating Direction Method of Multipliers)最適化フレームワークを統合する。
論文 参考訳(メタデータ) (2025-09-12T08:08:48Z) - Enhancing Model Privacy in Federated Learning with Random Masking and Quantization [46.915409150222494]
大規模言語モデル(LLM)の台頭は、分散システムに新たな課題をもたらした。
これは、センシティブなデータとプロプライエタリなモデルの両方を保護可能な、フェデレーション付き学習アプローチの必要性を強調している。
モデルパラメータのサブネットワークを隠蔽するためにランダムマスキングを利用するフェデレート学習手法であるFedQSNを提案する。
論文 参考訳(メタデータ) (2025-08-26T10:34:13Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - PRIOR: Personalized Prior for Reactivating the Information Overlooked in
Federated Learning [16.344719695572586]
各クライアントのグローバルモデルにパーソナライズされた事前知識を注入する新しいスキームを提案する。
提案したアプローチの中心は,Bregman Divergence (pFedBreD) による PFL フレームワークである。
提案手法は5つのデータセット上での最先端のパフォーマンスに到達し、8つのベンチマークで最大3.5%性能を向上する。
論文 参考訳(メタデータ) (2023-10-13T15:21:25Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - H-FL: A Hierarchical Communication-Efficient and Privacy-Protected
Architecture for Federated Learning [0.2741266294612776]
本稿では,この課題に対処するため,階層型連合学習(H-FL)と呼ばれる新しい枠組みを提案する。
トレーニングデータの統計的不均一性によるモデル性能の劣化を考慮すると,実行時分布再構成戦略を考案する。
さらに,H-FLに組み込まれた圧縮補正機構を設計し,モデル性能を犠牲にすることなく通信オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2021-06-01T07:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。