論文の概要: Safeguarding Federated Learning-based Road Condition Classification
- arxiv url: http://arxiv.org/abs/2507.12568v1
- Date: Wed, 16 Jul 2025 18:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.245129
- Title: Safeguarding Federated Learning-based Road Condition Classification
- Title(参考訳): フェデレーション学習に基づく道路条件分類の保護
- Authors: Sheng Liu, Panos Papadimitratos,
- Abstract要約: フェデレートラーニング(FL)は、プライバシー保護自動運転のための有望なソリューションとして登場した。
しかし、FL-RCCフレームワークの協調的な性質には、新たな脆弱性が導入されている。
TLFAは、車両がスリッパで危険な道路条件を素早いものと誤分類し、推奨速度を超える可能性がある。
1)既存のFL-RCCシステムの脆弱性をTLFAに開示し、2)TLFAがもたらす安全リスクを正確に定量化するためのラベル距離に基づく新しい指標を導入し、3)FLAREを提案する。
- 参考スコア(独自算出の注目度): 9.25788964991865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has emerged as a promising solution for privacy-preserving autonomous driving, specifically camera-based Road Condition Classification (RCC) systems, harnessing distributed sensing, computing, and communication resources on board vehicles without sharing sensitive image data. However, the collaborative nature of FL-RCC frameworks introduces new vulnerabilities: Targeted Label Flipping Attacks (TLFAs), in which malicious clients (vehicles) deliberately alter their training data labels to compromise the learned model inference performance. Such attacks can, e.g., cause a vehicle to mis-classify slippery, dangerous road conditions as pristine and exceed recommended speed. However, TLFAs for FL-based RCC systems are largely missing. We address this challenge with a threefold contribution: 1) we disclose the vulnerability of existing FL-RCC systems to TLFAs; 2) we introduce a novel label-distance-based metric to precisely quantify the safety risks posed by TLFAs; and 3) we propose FLARE, a defensive mechanism leveraging neuron-wise analysis of the output layer to mitigate TLFA effects. Extensive experiments across three RCC tasks, four evaluation metrics, six baselines, and three deep learning models demonstrate both the severity of TLFAs on FL-RCC systems and the effectiveness of FLARE in mitigating the attack impact.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシー保護自動運転、特にカメラベースの道路条件分類(RCC)システムにおいて、機密画像データを共有することなく、車両上の分散センシング、コンピューティング、通信リソースを活用するための有望なソリューションとして登場した。
しかしながら、FL-RCCフレームワークのコラボレーティブな性質には、次のような新たな脆弱性が導入されている。 悪意のあるクライアント(車両)が学習したモデル推論のパフォーマンスを損なうために、トレーニングデータラベルを意図的に変更するTLFA(Targeted Label Flipping Attacks)。
このような攻撃は、例えば、車両がスリッパで危険な道路条件を素早いものと誤分類し、推奨速度を超える可能性がある。
しかし、FLベースのRCCシステムのためのTLFAはほとんど欠落している。
私たちはこの課題に3倍のコントリビューションで対処しています。
1)既存のFL-RCCシステムの脆弱性をTLFAに開示する。
2)TLFAによる安全リスクを正確に定量化するためのラベル距離に基づく新しい指標を導入する。
3) TLFA効果を軽減するために, 出力層のニューロン解析を利用した防御機構であるFLAREを提案する。
3つのRCCタスク、評価指標4つ、ベースライン6つ、ディープラーニングモデル3つにわたる大規模な実験は、FL-RCCシステムにおけるTLFAの重症度と、攻撃影響軽減におけるFLAREの有効性を実証している。
関連論文リスト
- Empirical Performance Evaluation of Lane Keeping Assist on Modern Production Vehicles [23.265034571289664]
本稿では,Line Keeping Assist(LKA)の実際の性能に関する総合的な実証分析を行った。
i) LKA障害は、系統的に知覚、計画、制御エラーに分類できる。
これらの知見に基づいて,道路形状,速度制限,LKAステアリング機能を統合した理論的モデルを提案する。
論文 参考訳(メタデータ) (2025-05-14T03:04:22Z) - Sparsification Under Siege: Defending Against Poisoning Attacks in Communication-Efficient Federated Learning [10.036313132071545]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
通信効率と毒殺攻撃に対する脆弱性において、大きな課題に直面している。
スパースインデックスマスク検査とモデル更新符号類似性分析を統合した,新しいフェデレート学習フレームワークFLAREを提案する。
論文 参考訳(メタデータ) (2025-04-30T14:59:13Z) - Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning [49.68790647579509]
Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
Vulnerable Edge Manipulation (VEM) 攻撃という, FRLに対する新たな局所モデル中毒攻撃を導入する。
我々の攻撃は、全体的な53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを与える。
論文 参考訳(メタデータ) (2025-03-12T00:38:14Z) - Refuse Whenever You Feel Unsafe: Improving Safety in LLMs via Decoupled Refusal Training [67.30423823744506]
我々は,LLMに対して,いかなる応答位置においても有害なプロンプトへのコンプライアンスを拒否する権限を付与する,新しいアプローチであるDecoupled Refusal Training(DeRTa)を導入する。
DeRTaは,(1)安全応答の開始に有害な応答のセグメントを付加することにより,安全でないコンテンツの認識と回避をモデルに訓練する,(2)有害応答シーケンスを通して潜在的障害から安全拒絶へ移行する能力をモデルに装備する強化遷移最適化(RTO)という,2つの新しいコンポーネントを組み込んでいる。
論文 参考訳(メタデータ) (2024-07-12T09:36:33Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Towards Understanding Adversarial Transferability in Federated Learning [14.417827137513369]
悪質なクライアントのグループは、そのアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、トレーニング中にモデルに影響を与えてきたが、その後、敵の役割に切り替えた。
この種の攻撃は微妙で検出が難しい。
提案攻撃が現在のFLシステムに対して高いセキュリティリスクを課すことを実証的に示す。
論文 参考訳(メタデータ) (2023-10-01T08:35:46Z) - Enabling Quartile-based Estimated-Mean Gradient Aggregation As Baseline
for Federated Image Classifications [5.5099914877576985]
Federated Learning(FL)は、機密データを保護し、モデルパフォーマンスを改善しながら、分散コラボレーションを可能にすることによって、ディープニューラルネットワークのトレーニング方法に革命をもたらした。
本稿では,これらの課題に対処するだけでなく,FLシステムにおける高度な集約技術に対して$mathsfbaseline$として基本的な参照ポイントを提供する,Estimated Mean Aggregation (EMA) という革新的なソリューションを紹介する。
論文 参考訳(メタデータ) (2023-09-21T17:17:28Z) - Learned Risk Metric Maps for Kinodynamic Systems [54.49871675894546]
本研究では,高次元力学系のコヒーレントリスクメトリクスをリアルタイムに推定するための学習型リスクメトリクスマップを提案する。
LRMMモデルは設計と訓練が簡単で、障害セットの手続き的生成、状態と制御のサンプリング、および関数近似器の教師付きトレーニングのみを必要とする。
論文 参考訳(メタデータ) (2023-02-28T17:51:43Z) - FRL-FI: Transient Fault Analysis for Federated Reinforcement
Learning-Based Navigation Systems [4.9002824669038265]
Swarmインテリジェンスは、ドローンや無人車両などの自律システムにますますデプロイされている。
連続技術ノードスケーリングによるハードウェアシステムでは,過渡的障害が増加しています。
本稿では,FRLシステムにおいて最大3.3倍のレジリエンス向上と2.7%のオーバヘッドを達成できる2つのコスト効率な故障検出・復旧手法を提案する。
論文 参考訳(メタデータ) (2022-03-14T16:51:41Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。