論文の概要: OmniFed: A Modular Framework for Configurable Federated Learning from Edge to HPC
- arxiv url: http://arxiv.org/abs/2509.19396v1
- Date: Tue, 23 Sep 2025 03:40:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.539057
- Title: OmniFed: A Modular Framework for Configurable Federated Learning from Edge to HPC
- Title(参考訳): OmniFed: エッジからHPCへのフェデレーション学習の設定可能なフレームワーク
- Authors: Sahil Tyagi, Andrei Cozma, Olivera Kotevska, Feiyi Wang,
- Abstract要約: OmniFedは、コンフィギュレーション、オーケストレーション、通信、トレーニングロジックに関する関心事を分離し、明確に分離するように設計されたモジュラーフレームワークです。
そのアーキテクチャは、コンフィギュレーション駆動のプロトタイピングとコードレベルのオーバライド、すなわち必要なカスタマイズをサポートする。
また、異なるトポロジ、単一のデプロイメント内での混合通信プロトコル、一般的なトレーニングアルゴリズムもサポートしています。
- 参考スコア(独自算出の注目度): 4.221579336040247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is critical for edge and High Performance Computing (HPC) where data is not centralized and privacy is crucial. We present OmniFed, a modular framework designed around decoupling and clear separation of concerns for configuration, orchestration, communication, and training logic. Its architecture supports configuration-driven prototyping and code-level override-what-you-need customization. We also support different topologies, mixed communication protocols within a single deployment, and popular training algorithms. It also offers optional privacy mechanisms including Differential Privacy (DP), Homomorphic Encryption (HE), and Secure Aggregation (SA), as well as compression strategies. These capabilities are exposed through well-defined extension points, allowing users to customize topology and orchestration, learning logic, and privacy/compression plugins, all while preserving the integrity of the core system. We evaluate multiple models and algorithms to measure various performance metrics. By unifying topology configuration, mixed-protocol communication, and pluggable modules in one stack, OmniFed streamlines FL deployment across heterogeneous environments. Github repository is available at https://github.com/at-aaims/OmniFed.
- Abstract(参考訳): フェデレートラーニング(FL)は、データが集中せず、プライバシが不可欠であるエッジとハイパフォーマンスコンピューティング(HPC)にとって重要である。
OmniFedは、コンフィギュレーション、オーケストレーション、通信、トレーニングロジックに関する関心事を分離し、明確に分離するように設計されたモジュラーフレームワークです。
そのアーキテクチャは、コンフィギュレーション駆動のプロトタイピングとコードレベルのオーバライド、すなわち必要なカスタマイズをサポートする。
また、異なるトポロジ、単一のデプロイメント内での混合通信プロトコル、一般的なトレーニングアルゴリズムもサポートしています。
また、差分プライバシ(DP)、ホモモルフィック暗号化(HE)、セキュアアグリゲーション(SA)、圧縮戦略などのオプションのプライバシメカニズムも提供する。
これらの機能は、よく定義された拡張ポイントを通じて公開され、ユーザは、コアシステムの完全性を維持しながら、トポロジとオーケストレーション、学習ロジック、プライバシ/圧縮プラグインをカスタマイズできる。
様々なパフォーマンス指標を測定するために,複数のモデルとアルゴリズムを評価した。
トポロジ構成、混合プロトコル通信、プラグイン可能なモジュールをひとつのスタックに統合することにより、OmniFedは異種環境へのFLデプロイメントを効率化する。
Githubリポジトリはhttps://github.com/at-aaims/OmniFed.comで入手できる。
関連論文リスト
- HiPerformer: A High-Performance Global-Local Segmentation Model with Modular Hierarchical Fusion Strategy [14.223063820829047]
局所的な詳細とグローバルな文脈は、医用画像のセグメンテーションにおいて不可欠であり、それらを効果的に統合することは、高い精度を達成するために不可欠である。
マルチソース機能を並列に融合する新しいモジュラー階層アーキテクチャであるHiPerformerを提案する。
ローカル・グローバル・フィーチャー・フュージョン(LGFF)モジュールを設計し,局所的詳細情報と大域的意味情報の正確かつ効率的な統合を実現する。
11の公開データセットの実験では、提案手法が既存のセグメンテーション手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-09-24T16:15:42Z) - DitHub: A Modular Framework for Incremental Open-Vocabulary Object Detection [32.77455136447568]
効率的な適応モジュールのライブラリの構築とメンテナンスを目的としたフレームワークであるDitHubを紹介した。
Version Control SystemsにインスパイアされたDitHubは、専門家モジュールを必要に応じてフェッチしてマージ可能なブランチとして管理する。
本手法は,ODinW-13ベンチマークとODinW-Oを用いて,クラス再出現の評価を行う。
論文 参考訳(メタデータ) (2025-03-12T11:15:34Z) - Multi-client Functional Encryption for Set Intersection with Non-monotonic Access Structures in Federated Learning [1.2891210250935148]
クラウドサーバに基づくフェデレーション学習(FL)は、分散機械学習フレームワークである。
非単調なアクセス構造を持つ集合交差に対するマルチクライアント機能暗号方式を提案する。
論文 参考訳(メタデータ) (2024-12-12T13:19:12Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [115.79349923044663]
FSCIL(Few-shot class-incremental Learning)は、限られた例から新しいクラスを段階的に学習することを目的としている。
静的アーキテクチャは固定パラメータ空間に依存して、逐次到着するデータから学習し、現在のセッションに過度に適合する傾向がある。
本研究では,FSCILにおける選択状態空間モデル(SSM)の可能性について検討する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - FedYolo: Augmenting Federated Learning with Pretrained Transformers [61.56476056444933]
本研究では,デバイス上での学習目標を達成するための事前学習型トランスフォーマー(PTF)について検討する。
大規模化により,代替手法間の精度ギャップが小さくなり,ロバスト性も向上することを示す。
最後に、クライアントは単一のPTFを使用して複数の無関係なタスクを同時に解決できる。
論文 参考訳(メタデータ) (2023-07-10T21:08:52Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Boosted Decision Trees with Differential Privacy [24.66980518231163]
本稿では,従来の決定木に対するアプローチをキャプチャし,拡張する汎用フレームワークを提案する。
高いレベルのプライバシを維持しながら、極めて高いユーティリティを実現することが可能であることを、慎重に選択することで示しています。
論文 参考訳(メタデータ) (2022-10-06T13:28:29Z) - Federated Select: A Primitive for Communication- and Memory-Efficient
Federated Learning [4.873569522869751]
Federated Learning(FL)は、異種クライアントデバイス間で機械学習を行うためのフレームワークである。
クライアントがどの値を送信するかを"選択"する,より一般的な手順を提案する。
これにより、クライアントは小さなデータ依存スライスで操作できる。
論文 参考訳(メタデータ) (2022-08-19T16:26:03Z) - Privatized Graph Federated Learning [57.14673504239551]
グラフによって連結された複数の単位からなるグラフフェデレーション学習を導入する。
グラフ準同型摂動はアルゴリズムが微分プライベートであることを保証するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-03-14T13:48:23Z) - AlignSeg: Feature-Aligned Segmentation Networks [109.94809725745499]
本稿では,機能集約プロセスにおける誤アライメント問題に対処するために,特徴適応型ネットワーク(AlignSeg)を提案する。
我々のネットワークは、それぞれ82.6%と45.95%という新しい最先端のmIoUスコアを達成している。
論文 参考訳(メタデータ) (2020-02-24T10:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。