論文の概要: Temperature Scaling Attack Disrupting Model Confidence in Federated Learning
- arxiv url: http://arxiv.org/abs/2602.06638v2
- Date: Mon, 09 Feb 2026 01:55:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 17:49:39.507357
- Title: Temperature Scaling Attack Disrupting Model Confidence in Federated Learning
- Title(参考訳): フェデレート学習における温度スケーリング攻撃破壊モデル信頼度
- Authors: Kichang Lee, Jaeho Jin, JaeYeon Park, Songkuk Kim, JeongGil Ko,
- Abstract要約: 精度を保ちながらキャリブレーションを低下させる訓練時間攻撃である温度スケーリング攻撃(TSA)を提案する。
その結果, 校正整合性は, 連合学習における重要な攻撃面として確立された。
- 参考スコア(独自算出の注目度): 4.863985119779627
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive confidence serves as a foundational control signal in mission-critical systems, directly governing risk-aware logic such as escalation, abstention, and conservative fallback. While prior federated learning attacks predominantly target accuracy or implant backdoors, we identify confidence calibration as a distinct attack objective. We present the Temperature Scaling Attack (TSA), a training-time attack that degrades calibration while preserving accuracy. By injecting temperature scaling with learning rate-temperature coupling during local training, malicious updates maintain benign-like optimization behavior, evading accuracy-based monitoring and similarity-based detection. We provide a convergence analysis under non-IID settings, showing that this coupling preserves standard convergence bounds while systematically distorting confidence. Across three benchmarks, TSA substantially shifts calibration (e.g., 145% error increase on CIFAR-100) with <2 accuracy change, and remains effective under robust aggregation and post-hoc calibration defenses. Case studies further show that confidence manipulation can cause up to 7.2x increases in missed critical cases (healthcare) or false alarms (autonomous driving), even when accuracy is unchanged. Overall, our results establish calibration integrity as a critical attack surface in federated learning.
- Abstract(参考訳): 予測的信頼は、ミッションクリティカルシステムにおける基本的な制御信号として機能し、エスカレーション、棄権、保守的なフォールバックといったリスク認識論理を直接管理する。
事前のフェデレーション学習攻撃は、主に精度やインプラントバックドアを標的としているが、信頼度校正は別個の攻撃目標である。
精度を保ちながらキャリブレーションを低下させる訓練時間攻撃である温度スケーリング攻撃(TSA)を提案する。
ローカルトレーニング中に学習速度-温度結合による温度スケーリングを注入することにより、悪意のある更新は良性的な最適化動作を維持し、正確性に基づく監視と類似性に基づく検出を回避する。
非IID条件下で収束解析を行い、この結合が信頼を体系的に歪ませながら標準収束境界を保存することを示す。
3つのベンチマークで、TSAはキャリブレーション(例えばCIFAR-100の145%のエラー増加)を<2の精度で実質的にシフトし、ロバストなアグリゲーションとポストホックなキャリブレーション防御の下でも有効である。
ケーススタディでは、正確性が変化しても、不適切なケース(健康管理)や誤報(自律運転)では信頼性が最大7.2倍増加することが示されている。
総じて,我々は校正整合性を,連合学習における重要な攻撃面として位置づけている。
関連論文リスト
- Decision-Aware Trust Signal Alignment for SOC Alert Triage [0.0]
本稿では,SOC警告トリアージの信頼信号対応方式を提案する。
このフレームワークは、調整済みの信頼性、軽量不確実性、そしてコストに敏感な決定しきい値をコヒーレントな決定支持層に組み合わせている。
信頼度が不一致な表示によって偽陰性が大幅に増幅されるのに対し、コスト重み付き損失は決定整合信頼信号を持つモデル間での桁違いに減少することを示す。
論文 参考訳(メタデータ) (2026-01-08T01:41:54Z) - Uncertainty-Aware Post-Hoc Calibration: Mitigating Confidently Incorrect Predictions Beyond Calibration Metrics [6.9681910774977815]
本稿では、校正品質と不確実性を考慮した意思決定を向上させるためのポストホック校正フレームワークを提案する。
校正基準,不確実性認識性能測定,実証的コンフォメーションカバレッジを用いて総合評価を行った。
実験により,提案手法はイソトニックおよび焦点損失ベースラインと比較して,信頼性の低い予測精度と競合予測誤差を実現することが示された。
論文 参考訳(メタデータ) (2025-10-19T23:55:36Z) - DATS: Distance-Aware Temperature Scaling for Calibrated Class-Incremental Learning [13.864609787260298]
連続学習(CL)は、新しいクラスの連続から1つのモデルを漸進的に学習できる能力に注目が集まっている。
安全クリティカルなアプリケーションでは、予測モデルは、その不確実性(すなわち、ターゲットイベントの真の頻度に一致した信頼スコア)を確実に伝達することができる。
本研究では,プロトタイプに基づく距離推定と距離認識キャリブレーションを組み合わせた距離認識温度スケーリング(DATS)を提案し,タスク近接を推定し,先行タスク情報なしで適応温度を割り当てる。
論文 参考訳(メタデータ) (2025-09-25T13:46:56Z) - Trust, or Don't Predict: Introducing the CWSA Family for Confidence-Aware Model Evaluation [0.0]
信頼性重み付き選択精度(CWSA)と正規化変種CWSA+を紹介する。
CWSAは、信頼しきい値の下で予測モデルを評価するための原則的で解釈可能な方法を提供する。
CWSAとCWSA+は、信頼度の高いテストにおいて、ニュアンスド障害モードを効果的に検出し、古典的な指標より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-24T10:07:48Z) - Coverage-Guaranteed Speech Emotion Recognition via Calibrated Uncertainty-Adaptive Prediction Sets [0.0]
しばしば感情的な抑圧と突然のアウトバーストによって引き起こされる道路の怒りは、衝突や攻撃的な行動を引き起こすことによって道路の安全を著しく脅かす。
音声感情認識技術は、ネガティブな感情を早期に識別し、タイムリーな警告を発することにより、このリスクを軽減することができる。
本稿では,予測精度を統計的に厳格に保証するリスク制御予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-24T12:26:28Z) - Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Sample-dependent Adaptive Temperature Scaling for Improved Calibration [95.7477042886242]
ニューラルネットワークの誤りを補うポストホックアプローチは、温度スケーリングを実行することだ。
入力毎に異なる温度値を予測し、信頼度と精度のミスマッチを調整することを提案する。
CIFAR10/100およびTiny-ImageNetデータセットを用いて,ResNet50およびWideResNet28-10アーキテクチャ上で本手法をテストする。
論文 参考訳(メタデータ) (2022-07-13T14:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。