論文の概要: FedLAD: A Modular and Adaptive Testbed for Federated Log Anomaly Detection
- arxiv url: http://arxiv.org/abs/2512.08277v1
- Date: Tue, 09 Dec 2025 06:15:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.832136
- Title: FedLAD: A Modular and Adaptive Testbed for Federated Log Anomaly Detection
- Title(参考訳): FedLAD: フェデレーションログ異常検出のためのモジュール型および適応型テストベッド
- Authors: Yihan Liao, Jacky Keung, Zhenyu Mao, Jingyu Zhang, Jialong Li,
- Abstract要約: FedLADはFL制約下でのLADモデルのトレーニングと評価のための統合プラットフォームである。
さまざまなLADモデル、ベンチマークデータセット、アグリゲーション戦略のプラグインとプレイの統合をサポートする。
FedLADはFLフレームワークとLAD要件のギャップを埋め、将来の研究の確かな基盤を提供する。
- 参考スコア(独自算出の注目度): 13.452100730952479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Log-based anomaly detection (LAD) is critical for ensuring the reliability of large-scale distributed systems. However, most existing LAD approaches assume centralized training, which is often impractical due to privacy constraints and the decentralized nature of system logs. While federated learning (FL) offers a promising alternative, there is a lack of dedicated testbeds tailored to the needs of LAD in federated settings. To address this, we present FedLAD, a unified platform for training and evaluating LAD models under FL constraints. FedLAD supports plug-and-play integration of diverse LAD models, benchmark datasets, and aggregation strategies, while offering runtime support for validation logging (self-monitoring), parameter tuning (self-configuration), and adaptive strategy control (self-adaptation). By enabling reproducible and scalable experimentation, FedLAD bridges the gap between FL frameworks and LAD requirements, providing a solid foundation for future research. Project code is publicly available at: https://github.com/AA-cityu/FedLAD.
- Abstract(参考訳): 大規模分散システムの信頼性を確保するためには,ログベースの異常検出(LAD)が重要である。
しかしながら、既存のLADアプローチのほとんどは集中的なトレーニングを前提としており、プライバシの制約やシステムログの非集中的な性質のために現実的ではないことが多い。
フェデレーション・ラーニング(FL)は有望な代替手段を提供するが、フェデレーション・セッティングにおけるLADのニーズに合わせた専用のテストベッドがない。
FL制約下でのLADモデルのトレーニングと評価のための統合プラットフォームであるFedLADを提案する。
FedLADは様々なLADモデル、ベンチマークデータセット、アグリゲーション戦略のプラグインとプレイの統合をサポートし、バリデーションロギング(自己監視)、パラメータチューニング(自己設定)、適応戦略制御(自己適応)のランタイムサポートを提供する。
再現性とスケーラブルな実験を可能にすることで、FedLADはFLフレームワークとLAD要件のギャップを埋め、将来の研究の確かな基盤を提供する。
プロジェクトコードは、https://github.com/AA-cityu/FedLAD.comで公開されている。
関連論文リスト
- Source-Free Object Detection with Detection Transformer [59.33653163035064]
Source-Free Object Detection (SFOD) は、ソースデータにアクセスすることなく、ソースドメインから教師なしのターゲットドメインへの知識転送を可能にする。
ほとんどの既存のSFODアプローチは、より高速なR-CNNのような従来のオブジェクト検出(OD)モデルに限られるか、新しいODアーキテクチャ、特に検出変換器(DETR)に適合しない一般的なソリューションとして設計されている。
本稿では,DTRのクエリ中心の機能強化を特化して設計された新しいSFODフレームワークであるFeature Reweighting ANd Contrastive Learning NetworK(FRANCK)を紹介する。
論文 参考訳(メタデータ) (2025-10-13T07:35:04Z) - Closer to Reality: Practical Semi-Supervised Federated Learning for Foundation Model Adaptation [56.36237936346563]
ファンデーションモデル(FM)は顕著な一般化を示すが、下流のタスクに適応する必要がある。
データプライバシー規制のため、クラウドベースのFMはプライベートエッジデータに直接アクセスできない。
エッジデバイスがラベルのない低解像度のデータのみを保持する実践的セミスーパービジョン・フェデレーションラーニング(PSSFL)を導入する。
我々の研究は、フェデレートされたシナリオにおけるスケーラブルでプライバシ保護のFM適応の道を開いた。
論文 参考訳(メタデータ) (2025-08-22T17:47:02Z) - Intrinsic Training Signals for Federated Learning Aggregation [13.540945877050525]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
この研究は、既存のトレーニング信号だけで効果的なモデルマージが達成できることを実証している。
論文 参考訳(メタデータ) (2025-07-09T13:03:23Z) - UnifyFL: Enabling Decentralized Cross-Silo Federated Learning [0.0]
We developed a trust-based cross-silo Federated Learning framework called UnifyFL。
多様なテストベッドを用いた評価の結果,UnifyFLは理想的なマルチレベル集中型FLに匹敵する性能を示した。
論文 参考訳(メタデータ) (2025-04-26T13:15:40Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - UniFed: All-In-One Federated Learning Platform to Unify Open-Source
Frameworks [53.20176108643942]
オープンソースフェデレートラーニング(FL)フレームワークを標準化する最初の統一プラットフォームであるUniFedを紹介します。
UniFedは、分散実験とデプロイメントのためのエンドツーエンドワークフローを合理化し、11の人気のあるオープンソースFLフレームワークを含んでいる。
機能、プライバシ保護、パフォーマンスの観点から、11の人気のあるFLフレームワークを評価し比較する。
論文 参考訳(メタデータ) (2022-07-21T05:03:04Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。