論文の概要: FedPoisonTTP: A Threat Model and Poisoning Attack for Federated Test-Time Personalization
- arxiv url: http://arxiv.org/abs/2511.19248v1
- Date: Mon, 24 Nov 2025 16:02:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.292521
- Title: FedPoisonTTP: A Threat Model and Poisoning Attack for Federated Test-Time Personalization
- Title(参考訳): FedPoisonTTP: フェデレーションテストタイムパーソナライゼーションの脅威モデルと攻撃
- Authors: Md Akil Raihan Iftee, Syed Md. Ahnaf Hasan, Amin Ahsan Ali, AKM Mahbubur Rahman, Sajib Mistry, Aneesh Krishna,
- Abstract要約: FedPoisonTTPは現実的な灰色のボックス攻撃フレームワークで、フェデレートされた適応設定でテスト時のデータ中毒を調査する。
妥協された参加者は、テストタイム全体のパフォーマンスを著しく低下させます。
- 参考スコア(独自算出の注目度): 1.0570173841923085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time personalization in federated learning enables models at clients to adjust online to local domain shifts, enhancing robustness and personalization in deployment. Yet, existing federated learning work largely overlooks the security risks that arise when local adaptation occurs at test time. Heterogeneous domain arrivals, diverse adaptation algorithms, and limited cross-client visibility create vulnerabilities where compromised participants can craft poisoned inputs and submit adversarial updates that undermine both global and per-client performance. To address this threat, we introduce FedPoisonTTP, a realistic grey-box attack framework that explores test-time data poisoning in the federated adaptation setting. FedPoisonTTP distills a surrogate model from adversarial queries, synthesizes in-distribution poisons using feature-consistency, and optimizes attack objectives to generate high-entropy or class-confident poisons that evade common adaptation filters. These poisons are injected during local adaptation and spread through collaborative updates, leading to broad degradation. Extensive experiments on corrupted vision benchmarks show that compromised participants can substantially diminish overall test-time performance.
- Abstract(参考訳): フェデレーション学習におけるテストタイムのパーソナライズにより、クライアントのモデルは、オンラインからローカルのドメインシフトを調整でき、ロバストさとデプロイメントにおけるパーソナライズを向上できる。
しかし、既存の連合学習作業は、テスト時に局所的な適応が発生すると生じるセキュリティリスクを概ね見落としている。
不均一なドメイン到着、多様な適応アルゴリズム、限られたクロスクライアントの可視性は、汚染された参加者が有毒な入力を作成し、グローバルなパフォーマンスとクライアント毎のパフォーマンスの両方を損なう敵の更新を提出する脆弱性を生み出します。
この脅威に対処するため、我々はFedPoisonTTPを紹介した。これは現実的なグレーボックス攻撃フレームワークで、フェデレート適応設定におけるテスト時間データ中毒を探索する。
FedPoisonTTPは、敵対的クエリからサロゲートモデルを蒸留し、特徴一貫性を使って分布内毒を合成し、攻撃目標を最適化し、一般的な適応フィルタを避けるために高エントロピーまたはクラス信頼毒を生成する。
これらの毒は、局所的な適応中に注射され、共同で更新され、広範囲に劣化する。
破壊されたビジョンベンチマークの大規模な実験は、妥協された参加者がテストタイム全体のパフォーマンスを著しく低下させる可能性があることを示している。
関連論文リスト
- Stealth by Conformity: Evading Robust Aggregation through Adaptive Poisoning [5.205955684180866]
Federated Learning(FL)は、プライバシの問題に対処するために設計された分散学習パラダイムである。
我々は適応的かつ回避的な毒殺戦略であるChameleon Poisoning (CHAMP)を提案する。
CHAMPは、より効果的で回避可能な中毒を可能にし、既存の堅牢なアグリゲーション防衛の基本的な制限を強調している。
論文 参考訳(メタデータ) (2025-09-03T13:40:54Z) - FedNIA: Noise-Induced Activation Analysis for Mitigating Data Poisoning in FL [6.144680854063938]
Federated Noise-induced Activation Analysis (FedNIA)は、敵の顧客を特定し排除するための新しい防御フレームワークである。
FedNIAはランダムノイズ入力を注入し、クライアントモデルの階層的なアクティベーションパターンを分析する。
サンプル中毒、ラベルのフリップ、バックドアなど、さまざまなタイプの攻撃に対して防御することができる。
論文 参考訳(メタデータ) (2025-02-23T01:16:01Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。