論文の概要: TrajSyn: Privacy-Preserving Dataset Distillation from Federated Model Trajectories for Server-Side Adversarial Training
- arxiv url: http://arxiv.org/abs/2512.15123v1
- Date: Wed, 17 Dec 2025 06:29:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.876993
- Title: TrajSyn: Privacy-Preserving Dataset Distillation from Federated Model Trajectories for Server-Side Adversarial Training
- Title(参考訳): TrajSyn: サーバサイドの逆トレーニングのためのフェデレーションモデル軌道からのプライバシ保護データセット蒸留
- Authors: Mukur Gupta, Niharika Gupta, Saifur Rahman, Shantanu Pal, Chandan Karmakar,
- Abstract要約: 対人訓練は強い防御力を持つが、連邦学習に適用することは困難である。
本稿では,サーバサイドの効果的な対人訓練を可能にするプライバシー保護フレームワークであるTrajSynを紹介する。
TrajSynは画像分類ベンチマークにおいて、クライアントデバイスに余分な計算負担を伴わずに、相反するロバスト性を一貫して改善することを示す。
- 参考スコア(独自算出の注目度): 2.5296581087709127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models deployed on edge devices are increasingly used in safety-critical applications. However, their vulnerability to adversarial perturbations poses significant risks, especially in Federated Learning (FL) settings where identical models are distributed across thousands of clients. While adversarial training is a strong defense, it is difficult to apply in FL due to strict client-data privacy constraints and the limited compute available on edge devices. In this work, we introduce TrajSyn, a privacy-preserving framework that enables effective server-side adversarial training by synthesizing a proxy dataset from the trajectories of client model updates, without accessing raw client data. We show that TrajSyn consistently improves adversarial robustness on image classification benchmarks with no extra compute burden on the client device.
- Abstract(参考訳): エッジデバイスにデプロイされるディープラーニングモデルは、安全クリティカルなアプリケーションでますます利用されている。
しかしながら、敵の摂動に対するその脆弱性は、特に同じモデルを数千のクライアントに分散するフェデレートラーニング(FL)設定において、重大なリスクを引き起こす。
敵のトレーニングは強い防御力を持つが、クライアントデータのプライバシー制約やエッジデバイスで利用可能な計算の制限のため、FLでは適用が困難である。
本稿では,クライアントモデル更新の軌跡からプロキシデータセットを合成することで,クライアントデータにアクセスすることなく,効果的なサーバ側対人トレーニングを可能にする,プライバシ保護フレームワークであるTrajSynを紹介する。
TrajSynは画像分類ベンチマークにおいて、クライアントデバイスに余分な計算負担を伴わずに、相反するロバスト性を一貫して改善することを示す。
関連論文リスト
- Efficient Federated Learning with Encrypted Data Sharing for Data-Heterogeneous Edge Devices [12.709837838251952]
我々は,フェデレートラーニングと暗号化データ共有という,エッジデバイス上での新しいフェデレーションラーニング手法を提案する。
FedEDSはクライアントモデルとモデルのレイヤを使用して、データ暗号化をトレーニングし、他のクライアントと共有します。
このアプローチは、フェデレーション学習トレーニングの収束速度を加速し、データ不均一性の負の影響を緩和する。
論文 参考訳(メタデータ) (2025-06-25T17:40:54Z) - Byzantine Outside, Curious Inside: Reconstructing Data Through Malicious Updates [36.2911560725828]
フェデレートラーニング(FL)は、生データを共有せずに分散機械学習を可能にする。
一般に採用されているFLプロトコルでは、プライバシリークが可能である。
FLに新たな脅威モデルを導入し、悪意ある好奇心をそそるクライアントと名づけた。
論文 参考訳(メタデータ) (2025-06-13T02:23:41Z) - Byzantine-Robust Federated Learning Using Generative Adversarial Networks [1.4091801425319963]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするが、その堅牢性は、データやモデル中毒といったビザンチンの行動によって脅かされている。
本稿では,クライアントの更新を検証するための代表データを生成するために,サーバ上の条件付き生成逆ネットワーク(cGAN)を活用することで,これらの課題に対処する防衛フレームワークを提案する。
このアプローチは、外部データセットへの依存を排除し、多様な攻撃戦略に適応し、標準FLにシームレスに統合する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。