論文の概要: Evaluating Adversarial Attacks on Federated Learning for Temperature Forecasting
- arxiv url: http://arxiv.org/abs/2512.13207v2
- Date: Tue, 16 Dec 2025 09:02:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 14:48:05.973487
- Title: Evaluating Adversarial Attacks on Federated Learning for Temperature Forecasting
- Title(参考訳): 温度予測のためのフェデレーション学習における敵対的攻撃の評価
- Authors: Karina Chichifoi, Fabio Merizzi, Michele Colajanni,
- Abstract要約: 本研究では,Copernicus European Regional ReAnalysis データセットを用いて学習した表層温度予測について検討した。
地理的に分散したクライアントをシミュレートし、地域温度予測に対するパッチベースおよびグローバルバイアス攻撃を評価する。
以上の結果から, 少数の有毒クライアントであっても, 大規模で空間的に結びついている領域において, 予測を誤認する可能性が示唆された。
- 参考スコア(独自算出の注目度): 3.0969191504482243
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning and federated learning (FL) are becoming powerful partners for next-generation weather forecasting. Deep learning enables high-resolution spatiotemporal forecasts that can surpass traditional numerical models, while FL allows institutions in different locations to collaboratively train models without sharing raw data, addressing efficiency and security concerns. While FL has shown promise across heterogeneous regions, its distributed nature introduces new vulnerabilities. In particular, data poisoning attacks, in which compromised clients inject manipulated training data, can degrade performance or introduce systematic biases. These threats are amplified by spatial dependencies in meteorological data, allowing localized perturbations to influence broader regions through global model aggregation. In this study, we investigate how adversarial clients distort federated surface temperature forecasts trained on the Copernicus European Regional ReAnalysis (CERRA) dataset. We simulate geographically distributed clients and evaluate patch-based and global biasing attacks on regional temperature forecasts. Our results show that even a small fraction of poisoned clients can mislead predictions across large, spatially connected areas. A global temperature bias attack from a single compromised client shifts predictions by up to -1.7 K, while coordinated patch attacks more than triple the mean squared error and produce persistent regional anomalies exceeding +3.5 K. Finally, we assess trimmed mean aggregation as a defense mechanism, showing that it successfully defends against global bias attacks (2-13% degradation) but fails against patch attacks (281-603% amplification), exposing limitations of outlier-based defenses for spatially correlated data.
- Abstract(参考訳): ディープラーニングと連邦学習(FL)は、次世代の天気予報の強力なパートナーになりつつある。
ディープラーニングは、従来の数値モデルを上回る高解像度の時空間予測を可能にし、FLは、異なる場所の機関が、生データを共有し、効率とセキュリティ上の懸念に対処することなく、協力的にモデルをトレーニングすることを可能にする。
FLはヘテロジニアスなリージョンにまたがっているが、その分散特性には新たな脆弱性が導入されている。
特に、不正なクライアントが操作されたトレーニングデータを注入するデータ中毒攻撃は、パフォーマンスを低下させたり、体系的なバイアスを導入したりすることができる。
これらの脅威は気象データの空間的依存関係によって増幅され、局所的な摂動はグローバルモデルアグリゲーションを通じてより広い領域に影響を与える。
本研究では,Copernicus European Regional ReAnalysis (CERRA) データセットを用いてトレーニングした表層温度予測を,敵クライアントが歪曲する方法について検討した。
地理的に分散したクライアントをシミュレートし、地域温度予測に対するパッチベースおよびグローバルバイアス攻撃を評価する。
以上の結果から, 少数の有毒クライアントであっても, 大規模で空間的に結びついている領域において, 予測を誤認する可能性が示唆された。
最後に, 2-13%の劣化を防ぎながら, パッチ攻撃(281~603%の増幅)に失敗し, 空間相関データに対する外部防御の限界を明らかにした。
関連論文リスト
- FedGraM: Defending Against Untargeted Attacks in Federated Learning via Embedding Gram Matrix [8.745475105649192]
Federated Learning (FL)は、地理的に分散したクライアントが、ローカルモデルのみを共有することで、機械学習モデルを協調的にトレーニングすることを可能にする。
FLは、基盤となるデータ分散上でのグローバルモデルのパフォーマンスを低下させることを目的とした、未ターゲットの攻撃に対して脆弱である。
FLにおける未標的攻撃に対する防御を目的とした,新たなロバストアグリゲーション手法であるFedGraMを提案する。
論文 参考訳(メタデータ) (2025-05-20T07:26:54Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Federated Prompt Learning for Weather Foundation Models on Devices [37.88417074427373]
天気予報のためのデバイス上のインテリジェンスでは、ローカルなディープラーニングモデルを使用して、集中型クラウドコンピューティングなしで気象パターンを分析する。
本稿では,FedPoD(Federated Prompt Learning for Weather Foundation Models on Devices)を提案する。
FedPoDは、通信効率を維持しながら、高度にカスタマイズされたモデルを得ることができる。
論文 参考訳(メタデータ) (2023-05-23T16:59:20Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Building Autocorrelation-Aware Representations for Fine-Scale
Spatiotemporal Prediction [1.2862507359003323]
本稿では,空間統計理論をニューラルネットワークに組み込んだ新しいディープラーニングアーキテクチャを提案する。
DeepLATTEには、局所的自己相関パターンとグローバルな自己相関傾向の両方を強制する、自己相関誘導半教師付き学習戦略が含まれている。
我々は,DeepLATTEの公開データを用いた実演を行い,健康上の重要なトピックとして,高度に適合した複雑な物理環境下での空気質予測を行った。
論文 参考訳(メタデータ) (2021-12-10T03:21:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。