論文の概要: Differential Privacy in Federated Learning: Mitigating Inference Attacks with Randomized Response
- arxiv url: http://arxiv.org/abs/2509.13987v1
- Date: Wed, 17 Sep 2025 13:59:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.85938
- Title: Differential Privacy in Federated Learning: Mitigating Inference Attacks with Randomized Response
- Title(参考訳): フェデレーション学習における差別的プライバシ - ランダムな応答による推論攻撃の軽減
- Authors: Ozer Ozturk, Busra Buyuktanir, Gozde Karatas Baydogmus, Kazim Yildiz,
- Abstract要約: マシンラーニングでは、各クライアントが独自のデータを使用してローカルモデルをトレーニングする。トレーニングされたモデルは、定期的に中央サーバに送信される。
その後、サーバはフェデレーション集約アルゴリズムを用いて受信したモデルを組み合わせてグローバルモデルを得る。
このグローバルモデルはクライアントに分散され、プロセスは循環的に継続されます。
攻撃者は、得られたモデルに対して推論攻撃を行い、トレーニングデータセットを近似し、データ漏洩を引き起こす可能性がある。
- 参考スコア(独自算出の注目度): 1.9949261242626626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models used for distributed architectures consisting of servers and clients require large amounts of data to achieve high accuracy. Data obtained from clients are collected on a central server for model training. However, storing data on a central server raises concerns about security and privacy. To address this issue, a federated learning architecture has been proposed. In federated learning, each client trains a local model using its own data. The trained models are periodically transmitted to the central server. The server then combines the received models using federated aggregation algorithms to obtain a global model. This global model is distributed back to the clients, and the process continues in a cyclical manner. Although preventing data from leaving the clients enhances security, certain concerns still remain. Attackers can perform inference attacks on the obtained models to approximate the training dataset, potentially causing data leakage. In this study, differential privacy was applied to address the aforementioned security vulnerability, and a performance analysis was conducted. The Data-Unaware Classification Based on Association (duCBA) algorithm was used as the federated aggregation method. Differential privacy was implemented on the data using the Randomized Response technique, and the trade-off between security and performance was examined under different epsilon values. As the epsilon value decreased, the model accuracy declined, and class prediction imbalances were observed. This indicates that higher levels of privacy do not always lead to practical outcomes and that the balance between security and performance must be carefully considered.
- Abstract(参考訳): サーバとクライアントで構成される分散アーキテクチャに使用される機械学習モデルは、高い精度を達成するために大量のデータを必要とする。
クライアントから取得したデータは、モデルトレーニングのために中央サーバに収集される。
しかし、中央サーバーにデータを格納することは、セキュリティとプライバシに関する懸念を引き起こす。
この問題に対処するため,連合型学習アーキテクチャが提案されている。
連合学習では、各クライアントは独自のデータを使用してローカルモデルをトレーニングする。
トレーニングされたモデルは、定期的に中央サーバに送信される。
その後、サーバはフェデレーション集約アルゴリズムを用いて受信したモデルを組み合わせてグローバルモデルを得る。
このグローバルモデルはクライアントに分散され、プロセスは循環的に継続されます。
データがクライアントを離れるのを防ぐことでセキュリティが向上するが、いくつかの懸念は残る。
攻撃者は、得られたモデルに対して推論攻撃を行い、トレーニングデータセットを近似し、データ漏洩を引き起こす可能性がある。
本研究では,上記のセキュリティ脆弱性に対処するために差分プライバシーを適用し,性能解析を行った。
データウナウエア分類に基づくアソシエーション(duCBA)アルゴリズムをフェデレーションアグリゲーション手法として用いた。
ランダム化応答法を用いてデータ上に異なるプライバシを実装し, セキュリティとパフォーマンスのトレードオフを異なるエプシロン値で検討した。
エプシロン値が低下すると、モデルの精度は低下し、クラス予測の不均衡が観察された。
これは、高レベルのプライバシが必ずしも実践的な結果をもたらすとは限らないこと、セキュリティとパフォーマンスのバランスを慎重に考慮する必要があることを示唆している。
関連論文リスト
- Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - Tackling Federated Unlearning as a Parameter Estimation Problem [2.9085589574462816]
本研究は,情報理論に基づく効果的なフェデレート・アンラーニング・フレームワークを提案する。
本手法では, 忘れられているデータに最も敏感なパラメータのみを識別し, 選択的にリセットするために, 2次ヘッセン情報を用いる。
論文 参考訳(メタデータ) (2025-08-26T14:24:45Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。