論文の概要: ASMR: Angular Support for Malfunctioning Client Resilience in Federated Learning
- arxiv url: http://arxiv.org/abs/2508.02414v1
- Date: Mon, 04 Aug 2025 13:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.356896
- Title: ASMR: Angular Support for Malfunctioning Client Resilience in Federated Learning
- Title(参考訳): ASMR: フェデレートラーニングにおけるクライアントレジリエンスの無効化のためのAngularサポート
- Authors: Mirko Konstantin, Moritz Fuchs, Anirban Mukhopadhyay,
- Abstract要約: フェデレートラーニング(FL)は、分散とプライバシ保護の方法でディープニューラルネットワークのトレーニングを可能にする。
FLは、グローバルモデルパフォーマンスの劣化を引き起こすクライアントによって送信される不正な更新に悩まされる。
これらの問題に対処するため、我々はAngular Support for Malfunctioning Client Resilience (ASMR) という新しい手法を導入する。
- 参考スコア(独自算出の注目度): 1.1807848705528714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) allows the training of deep neural networks in a distributed and privacy-preserving manner. However, this concept suffers from malfunctioning updates sent by the attending clients that cause global model performance degradation. Reasons for this malfunctioning might be technical issues, disadvantageous training data, or malicious attacks. Most of the current defense mechanisms are meant to require impractical prerequisites like knowledge about the number of malfunctioning updates, which makes them unsuitable for real-world applications. To counteract these problems, we introduce a novel method called Angular Support for Malfunctioning Client Resilience (ASMR), that dynamically excludes malfunctioning clients based on their angular distance. Our novel method does not require any hyperparameters or knowledge about the number of malfunctioning clients. Our experiments showcase the detection capabilities of ASMR in an image classification task on a histopathological dataset, while also presenting findings on the significance of dynamically adapting decision boundaries.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散とプライバシ保護の方法でディープニューラルネットワークのトレーニングを可能にする。
しかし、この概念は、グローバルモデルパフォーマンスの劣化を引き起こすクライアントが送信した不正な更新に悩まされる。
この誤動作の原因は、技術的な問題、不利なトレーニングデータ、悪意のある攻撃かもしれない。
現在の防衛機構のほとんどは、誤動作する更新の数に関する知識のような非現実的な前提条件を必要とすることを意図しているため、現実のアプリケーションには適さない。
これらの問題に対処するために,角距離に基づいて動的に機能不全クライアントを除外する,Angular Support for Malfunctioning Client Resilience (ASMR) という新しい手法を導入する。
我々の新しい手法は、機能不全なクライアントの数に関するハイパーパラメータや知識を一切必要としない。
病理組織学的データセット上の画像分類タスクにおけるASMRの検出能力を示すとともに,動的に適応する決定境界の意義に関する知見を提示する。
関連論文リスト
- Anomalous Client Detection in Federated Learning [8.851266468354003]
フェデレートラーニング(FL)は、レイテンシとプライバシを意識したアプリケーションのための、有望なソリューションだと見なされている。
多くのクライアントでデータが分散しているため、故障したデバイスや予期せぬイベントに起因するクライアントの異常を監視することは困難である。
FLフレームワークにおける悪意のあるクライアント攻撃やクライアントドリフトを克服する異常なクライアント検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-03T09:15:21Z) - Efficient Federated Learning against Heterogeneous and Non-stationary Client Unavailability [23.466997173249034]
FedAPMには、(i)標準のFedAvgに対して(1)O$追加のメモリ計算で使用不能な計算を行うための新しい構造が含まれている。
非定常力学であるにもかかわらず、FedAPMは静止点にも収束することを示す。
論文 参考訳(メタデータ) (2024-09-26T00:38:18Z) - Federated Behavioural Planes: Explaining the Evolution of Client Behaviour in Federated Learning [6.64590374742412]
FLシステムの力学を解析・可視化・説明するための新しい手法であるFBP(Federated Behavioural Planes)を紹介する。
我々の実験は、FBPがクライアントの進化状態を記述した情報トラジェクトリを提供することを示した。
我々は、悪意のあるクライアントモデルやノイズの多いクライアントモデルを検出するために、Federated Behavioural Shieldsという名前のロバストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T15:17:51Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - A Novel Semi-supervised Framework for Call Center Agent Malpractice
Detection via Neural Feature Learning [0.0]
本研究は,コールセンターエージェントの不正行為問題に対する実用的な解決法を提案する。
非線形電力変換、ニューラル特徴学習、k平均クラスタリングからなる半教師付きフレームワークを概説する。
論文 参考訳(メタデータ) (2021-06-04T12:16:40Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。