論文の概要: Mechanistic Analysis of Circuit Preservation in Federated Learning
- arxiv url: http://arxiv.org/abs/2512.23043v1
- Date: Sun, 28 Dec 2025 19:03:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.339595
- Title: Mechanistic Analysis of Circuit Preservation in Federated Learning
- Title(参考訳): フェデレーション学習における回路保存の力学解析
- Authors: Muhammad Haseeb, Salaar Masood, Muhammad Abdullah Sohail,
- Abstract要約: フェデレートラーニング(FL)は、分散データ上でモデルの協調訓練を可能にするが、その性能は非IIDデータ条件下で著しく低下する。
本稿では、メカニスティック・インタプリタビリティ(MI)のレンズによる標準FedAvgアルゴリズムについて検討し、この故障モードを診断する。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative training of models on decentralized data, but its performance degrades significantly under Non-IID (non-independent and identically distributed) data conditions. While this accuracy loss is well-documented, the internal mechanistic causes remain a black box. This paper investigates the canonical FedAvg algorithm through the lens of Mechanistic Interpretability (MI) to diagnose this failure mode. We hypothesize that the aggregation of conflicting client updates leads to circuit collapse, the destructive interference of functional, sparse sub-networks responsible for specific class predictions. By training inherently interpretable, weight-sparse neural networks within an FL framework, we identify and track these circuits across clients and communication rounds. Using Intersection-over-Union (IoU) to quantify circuit preservation, we provide the first mechanistic evidence that Non-IID data distributions cause structurally distinct local circuits to diverge, leading to their degradation in the global model. Our findings reframe the problem of statistical drift in FL as a concrete, observable failure of mechanistic preservation, paving the way for more targeted solutions.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データ上でモデルの協調トレーニングを可能にするが、その性能は非IID(非独立で同一の分散)データ条件下で著しく低下する。
この精度の損失はよく文書化されているが、内部の機械的原因はブラックボックスのままである。
本稿では、メカニスティック・インタプリタビリティ(MI)のレンズによる標準FedAvgアルゴリズムについて検討し、この故障モードを診断する。
競合するクライアント更新の集約は、特定のクラス予測に責任を負う機能的でスパースなサブネットワークの破壊的干渉である回路崩壊につながるという仮説を立てる。
FLフレームワーク内で本質的に解釈可能なウェイトスパースニューラルネットワークをトレーニングすることにより、これらの回路をクライアントと通信ラウンドで識別し、追跡する。
We provide the first mechanistic evidence that non-IID data distributions caused structurely different local circuits to diverge, led their degradation in the global model。
FLにおける統計的ドリフトの問題は, 力学的保存の具体的, 観測可能な失敗として再検討され, よりターゲットを絞った解の道を開いた。
関連論文リスト
- Revisiting Multivariate Time Series Forecasting with Missing Values [65.30332997607141]
現実の時系列では欠落値が一般的である。
現在のアプローチでは、計算モジュールを使用して、不足した値を補う、計算済みの予測フレームワークが開発されている。
このフレームワークは、致命的な問題を見落としている: 欠落した値に対して基礎的な真理は存在せず、予測精度を劣化させる可能性のあるエラーの影響を受けやすいようにしている。
本稿では,Information Bottleneck原則に基づく新しいフレームワークであるConsistency-Regularized Information Bottleneck(CRIB)を紹介する。
論文 参考訳(メタデータ) (2025-09-27T20:57:48Z) - Federated Learning in the Wild: A Comparative Study for Cybersecurity under Non-IID and Unbalanced Settings [1.441946602098626]
フェデレートラーニング(FL)は、複数のクライアントにわたるMLモデルの協調トレーニングを可能にする新しいパラダイムとして登場した。
本研究は、DDoS攻撃に対する侵入検知の文脈において、FL法を体系的に評価し、評価する。
我々の知る限りでは、現実的な非i.d.とアンバランスな設定下での侵入検出のためのFLアルゴリズムの比較分析はこれが初めてである。
論文 参考訳(メタデータ) (2025-09-22T14:25:32Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Adversarial Predictions of Data Distributions Across Federated
Internet-of-Things Devices [3.119217042097909]
フェデレーション・ラーニング(FL)は、分散インターネット・オブ・シング(IoT)デバイス間で機械学習モデルをトレーニングするためのデフォルトのアプローチになりつつある。
本研究では、FLで共有されるモデルウェイトが、IoTデバイスのローカルデータ配信に関する情報を明らかにすることを実証する。
この漏洩は、分散システムの悪意あるアクターに機密情報を暴露する可能性がある。
論文 参考訳(メタデータ) (2023-08-28T15:40:50Z) - Measuring and Mitigating Local Instability in Deep Neural Networks [23.342675028217762]
モデルが同じデータ上で再トレーニングされた場合でも,トレーニングプロセスにおける原理性の結果,モデルがどう変化するかを検討する。
自然言語理解(NLU)タスクでは,クエリのかなりの部分の予測が不安定であることがわかった。
局所的な安定性を推定する新たなデータ中心手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T00:34:15Z) - Is Stochastic Mirror Descent Vulnerable to Adversarial Delay Attacks? A
Traffic Assignment Resilience Study [20.11993437283895]
学習ベースのINSインフラは、情報構造に一定期間の中断を経験しても、ウォードロップ非平衡を実現することができることを示す。
これらの知見は、輸送生態系の様々な層にまたがる妨害攻撃に対して防御機構を設計するための貴重な洞察を与える。
論文 参考訳(メタデータ) (2023-04-03T17:28:24Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。