論文の概要: Integrating Homomorphic Encryption and Synthetic Data in FL for Privacy and Learning Quality
- arxiv url: http://arxiv.org/abs/2603.02969v1
- Date: Tue, 03 Mar 2026 13:23:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.812756
- Title: Integrating Homomorphic Encryption and Synthetic Data in FL for Privacy and Learning Quality
- Title(参考訳): プライバシーと学習品質のためのFLにおける同型暗号化と合成データの統合
- Authors: Yenan Wang, Carla Fabiana Chiasserini, Elad Michael Schiller,
- Abstract要約: フェデレートラーニング(FL)は、機密性の高いクライアントデータを共有することなく、機械学習モデルの協調トレーニングを可能にする。
本研究では、同相暗号(HE)を用いてプライバシーを保護するFLプロセスを強化する。
我々の解はAlt-FL(Alternating Federated Learning)と名付けられ, 局所学習と音響データ(authentic rounds), 局所学習と合成データ(synthetic rounds)を交互に交互に行う。
- 参考スコア(独自算出の注目度): 6.57398572182522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables collaborative training of machine learning models without sharing sensitive client data, making it a cornerstone for privacy-critical applications. However, FL faces the dual challenge of ensuring learning quality and robust privacy protection while keeping resource consumption low, particularly when using computationally expensive techniques such as homomorphic encryption (HE). In this work, we enhance an FL process that preserves privacy using HE by integrating it with synthetic data generation and an interleaving strategy. Specifically, our solution, named Alternating Federated Learning (Alt-FL), consists of alternating between local training with authentic data (authentic rounds) and local training with synthetic data (synthetic rounds) and transferring the encrypted and plaintext model parameters on authentic and synthetic rounds (resp.). Our approach improves learning quality (e.g., model accuracy) through datasets enhanced with synthetic data, preserves client data privacy via HE, and keeps manageable encryption and decryption costs through our interleaving strategy. We evaluate our solution against data leakage attacks, such as the DLG attack, demonstrating robust privacy protection. Also, Alt-FL provides 13.4% higher model accuracy and decreases HE-related costs by up to 48% with respect to Selective HE.
- Abstract(参考訳): フェデレートラーニング(FL)は、機密性の高いクライアントデータを共有することなく、機械学習モデルの協調トレーニングを可能にする。
しかしFLは、リソース消費を低く保ちつつ、学習品質と堅牢なプライバシ保護を確保するという2つの課題に直面している。
本研究では、合成データ生成とインターリービング戦略を統合し、HEを用いたプライバシー保護を行うFLプロセスを強化する。
具体的には、Alt-FL(Alternating Federated Learning, Alt-FL)と名づけられたソリューションは、実データ(音響円)による局所訓練と合成データ(合成円)による局所訓練とを交互に交互に行い、実データと合成円(resp。
このアプローチは、合成データで強化されたデータセットによる学習品質(例えば、モデル精度)を改善し、HEを介してクライアントデータのプライバシを保持し、インターリービング戦略を通じて管理可能な暗号化と復号化コストを維持する。
DLG攻撃のようなデータ漏洩攻撃に対する我々の解決策を評価し、堅牢なプライバシー保護を実証する。
また、Alt-FLはモデル精度を13.4%向上させ、選択HEに関してHE関連コストを最大48%削減する。
関連論文リスト
- Balancing Privacy-Quality-Efficiency in Federated Learning through Round-Based Interleaving of Protection Techniques [6.57398572182522]
本稿では、差分プライバシー(DP)、同型暗号化(HE)、合成データを組み合わせたプライバシー保護学習(FL)フレームワークを提案する。
プライバシ・インターリービング(PI), DPを用いたシンセティック・インターリービング(SI/DP), HEによるシンセティック・インターリービング(SI/HE)の3つの新しい手法を提案する。
PIは高いプライバシー保護レベルにおいて最もバランスの取れたトレードオフを達成する一方、DPベースの手法は中間的プライバシー要件において好ましいことを示す。
論文 参考訳(メタデータ) (2026-03-05T13:28:51Z) - Privacy-Preserving Model Transcription with Differentially Private Synthetic Distillation [67.76456940243294]
プライベートデータセットでトレーニングされたディープラーニングモデルは、プライバシー漏洩のリスクを引き起こす可能性がある。
本稿では,データフリーモデル-モデル変換ソリューションであるエンフェプライシ保存モデル転写について述べる。
論文 参考訳(メタデータ) (2026-01-27T01:51:35Z) - Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーテッド・ラーニング(FL)は、医療におけるプライバシー保護機械学習にとって重要なアプローチである。
これらのシステムの現在のセキュリティ実装は、基本的なトレードオフに直面している。
我々は、選択的同型暗号化、差分プライバシー、ビットワイズスクランブルを戦略的に組み合わせて堅牢なセキュリティを実現する新しいアプローチであるFast and Secure Federated Learningを提示する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - TinyML NLP Scheme for Semantic Wireless Sentiment Classification with Privacy Preservation [49.801175302937246]
本研究は、エッジデバイスにプライバシ保護、エネルギー効率の高いNLPモデルをデプロイする際の洞察を提供する。
セマンティックスプリットラーニング(SL)を,エネルギー効率,プライバシ保護,小型機械学習(TinyML)フレームワークとして導入する。
その結果,FLの4倍,CLの約18倍の再現誤差の増加により,SLは計算能力とCO2排出量を著しく低減し,プライバシーの向上を図った。
論文 参考訳(メタデータ) (2024-11-09T21:26:59Z) - Mitigating the Privacy Issues in Retrieval-Augmented Generation (RAG) via Pure Synthetic Data [51.41288763521186]
Retrieval-augmented Generation (RAG)は、外部知識ソースから取得した関連情報を統合することにより、言語モデルの出力を強化する。
RAGシステムは、プライベートデータを取得する際に深刻なプライバシーリスクに直面する可能性がある。
検索データに対するプライバシー保護の代替として,合成データを用いる方法を提案する。
論文 参考訳(メタデータ) (2024-06-20T22:53:09Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。