論文の概要: TimberStrike: Dataset Reconstruction Attack Revealing Privacy Leakage in Federated Tree-Based Systems
- arxiv url: http://arxiv.org/abs/2506.07605v2
- Date: Thu, 12 Jun 2025 17:48:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 13:18:14.154604
- Title: TimberStrike: Dataset Reconstruction Attack Revealing Privacy Leakage in Federated Tree-Based Systems
- Title(参考訳): TimberStrike: フェデレーションツリーベースシステムにおけるプライバシ漏洩を回避したデータセット再構築攻撃
- Authors: Marco Di Gennaro, Giovanni De Lucia, Stefano Longari, Stefano Zanero, Michele Carminati,
- Abstract要約: 我々はTimberStrikeを紹介した。TimberStrikeは、水平結合木モデルをターゲットにした最適化ベースのデータセット再構成攻撃である。
我々の攻撃は、他のクライアントからのセンシティブなトレーニングデータを推測するために、分割値と決定経路を用いて決定木の離散的な性質を利用する。
本研究は,木系フェデレート学習システムに特化して設計されたプライバシ保護機構の必要性を浮き彫りにした。
- 参考スコア(独自算出の注目度): 5.9186175166428345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning has emerged as a privacy-oriented alternative to centralized Machine Learning, enabling collaborative model training without direct data sharing. While extensively studied for neural networks, the security and privacy implications of tree-based models remain underexplored. This work introduces TimberStrike, an optimization-based dataset reconstruction attack targeting horizontally federated tree-based models. Our attack, carried out by a single client, exploits the discrete nature of decision trees by using split values and decision paths to infer sensitive training data from other clients. We evaluate TimberStrike on State-of-the-Art federated gradient boosting implementations across multiple frameworks, including Flower, NVFlare, and FedTree, demonstrating their vulnerability to privacy breaches. On a publicly available stroke prediction dataset, TimberStrike consistently reconstructs between 73.05% and 95.63% of the target dataset across all implementations. We further analyze Differential Privacy, showing that while it partially mitigates the attack, it also significantly degrades model performance. Our findings highlight the need for privacy-preserving mechanisms specifically designed for tree-based Federated Learning systems, and we provide preliminary insights into their design.
- Abstract(参考訳): Federated Learningは集中型機械学習に代わるプライバシ指向の代替として登場し、直接的なデータ共有なしに協調的なモデルトレーニングを可能にする。
ニューラルネットワークについて広く研究されているが、ツリーベースのモデルのセキュリティとプライバシはいまだに未調査である。
この研究は、水平にフェデレートされたツリーベースモデルをターゲットにした最適化ベースのデータセット再構築攻撃であるTimberStrikeを紹介した。
我々の攻撃は1つのクライアントによって行われ、分割値と決定経路を用いて決定木の離散的な性質を利用して、他のクライアントからのセンシティブなトレーニングデータを推測する。
我々は、TimberStrikeを、Flower、NVFlare、FedTreeなど、複数のフレームワークにまたがる実装の強化について評価し、プライバシー侵害に対する脆弱性を実証した。
公開されているストローク予測データセットでは、TimberStrikeは、すべての実装でターゲットデータセットの73.05%から95.63%を継続的に再構築している。
さらに、差分プライバシーを分析し、攻撃を部分的に軽減する一方で、モデル性能を著しく低下させることを示した。
本研究は,木系フェデレートラーニングシステムに特化して設計されたプライバシ保護機構の必要性を強調し,その設計に関する予備的な知見を提供する。
関連論文リスト
- QBI: Quantile-Based Bias Initialization for Efficient Private Data Reconstruction in Federated Learning [0.5497663232622965]
フェデレーション学習は、ユーザのプライバシを損なうことなく、分散データ上で機械学習モデルのトレーニングを可能にする。
近年の研究では、中央のエンティティが共有モデル更新からプライベートデータを完全に再構築できることが示されている。
論文 参考訳(メタデータ) (2024-06-26T20:19:32Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Turning Privacy-preserving Mechanisms against Federated Learning [22.88443008209519]
我々は、連邦学習のための最先端の防衛を無効化できる攻撃を設計する。
提案した攻撃には、2つの動作モードが含まれており、第1は収束抑制(逆モード)に焦点を当て、第2はグローバルフェデレーションモデル(バックドアモード)に誤評価インジェクションを構築することを目的としている。
実験の結果,バックドアモードで実施したテストの93%のケースにおいて,両モードにおける攻撃の有効性が示され,敵モードと完全有効バックドアの全テストにおいて平均60%のパフォーマンス低下が回復した。
論文 参考訳(メタデータ) (2023-05-09T11:43:31Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - SoK: Privacy-Preserving Collaborative Tree-based Model Learning [5.759774832460351]
ツリーベースモデルの分散およびプライバシー保護トレーニングに関する文献を調査します。
学習アルゴリズム,協調モデル,保護機構,脅威モデルという4つの軸に基づいて,知識を体系化する。
分散木ベースモデル学習において発生する情報漏洩を分析するフレームワークを初めて提供する。
論文 参考訳(メタデータ) (2021-03-16T11:24:15Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy Preserving Vertical Federated Learning for Tree-based Models [30.808567035503994]
フェデレーション学習は、複数の組織が互いにプライベートデータを公開することなく、共同でモデルをトレーニングすることを可能にする。
本稿では,垂直決定木学習と予測のためのプライバシー保護のための新しいソリューションであるPivotを提案する。
論文 参考訳(メタデータ) (2020-08-14T02:32:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。