論文の概要: ALIGN-FL: Architecture-independent Learning through Invariant Generative component sharing in Federated Learning
- arxiv url: http://arxiv.org/abs/2512.13316v1
- Date: Mon, 15 Dec 2025 13:35:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.676188
- Title: ALIGN-FL: Architecture-independent Learning through Invariant Generative component sharing in Federated Learning
- Title(参考訳): ALIGN-FL:フェデレートラーニングにおける不変生成成分共有によるアーキテクチャ非依存学習
- Authors: Mayank Gulati, Benedikt Groß, Gerhard Wunder,
- Abstract要約: 本稿では分散学習の新たなアプローチであるALIGN-FLを提案する。
我々のフレームワークは、完全なモデルパラメータを交換する代わりに、クライアント間で生成機能のみを転送することで、プライバシ保護学習を可能にします。
- 参考スコア(独自算出の注目度): 4.073149631618324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ALIGN-FL, a novel approach to distributed learning that addresses the challenge of learning from highly disjoint data distributions through selective sharing of generative components. Instead of exchanging full model parameters, our framework enables privacy-preserving learning by transferring only generative capabilities across clients, while the server performs global training using synthetic samples. Through complementary privacy mechanisms: DP-SGD with adaptive clipping and Lipschitz regularized VAE decoders and a stateful architecture supporting heterogeneous clients, we experimentally validate our approach on MNIST and Fashion-MNIST datasets with cross-domain outliers. Our analysis demonstrates that both privacy mechanisms effectively map sensitive outliers to typical data points while maintaining utility in extreme Non-IID scenarios typical of cross-silo collaborations. Index Terms: Client-invariant Learning, Federated Learning (FL), Privacy-preserving Generative Models, Non-Independent and Identically Distributed (Non-IID), Heterogeneous Architectures
- Abstract(参考訳): 本稿では,分散学習の新たなアプローチであるALIGN-FLを提案する。
本フレームワークは,完全なモデルパラメータを交換する代わりに,クライアント間で生成能力のみを転送することで,プライバシ保護学習を可能にし,サーバは合成サンプルを用いてグローバルトレーニングを行う。
適応クリッピングによるDP-SGDと、リプシッツが正規化したVAEデコーダと、異種クライアントをサポートするステートフルアーキテクチャにより、我々はMNISTおよびFashion-MNISTデータセットに対するクロスドメイン・アウトレージを用いたアプローチを実験的に検証した。
本分析は,2つのプライバシメカニズムが,非IIDの極端シナリオにおいて有効性を保ちながら,センシティブな外れ値と典型的なデータポイントを効果的にマッピングできることを実証する。
インデックス用語:クライアント不変学習、フェデレートラーニング(FL)、プライバシ保護ジェネレーティブモデル、非独立分散(Non-IID)、異種アーキテクチャ
関連論文リスト
- Hypernetworks for Model-Heterogeneous Personalized Federated Learning [13.408669475480824]
本稿では、クライアント固有の埋め込みベクトルを入力とし、各クライアントの異種モデルに合わせてパーソナライズされたパラメータを出力するサーバサイドハイパーネットワークを提案する。
知識共有の促進と計算の削減を目的として,ハイパーネットワーク内のマルチヘッド構造を導入し,類似のモデルサイズを持つクライアントがヘッドを共有できるようにする。
我々のフレームワークは外部データセットに依存しておらず、クライアントモデルアーキテクチャの開示を必要としない。
論文 参考訳(メタデータ) (2025-07-30T02:24:26Z) - Not All Clients Are Equal: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients [59.52341877720199]
計算コストを伴わずに異種アーキテクチャ間の知識共有を可能にするFedMosaicを提案する。
実世界のタスクの多様性を模倣するために,40の異なるタスクにまたがるマルチモーダルPFLベンチマークを提案する。
実証研究は、FedMosaicが最先端のPFL法より優れていることを示している。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - FissionVAE: Federated Non-IID Image Generation with Latent Space and Decoder Decomposition [8.444515700910879]
フェデレートされた学習により、分散化されたクライアントは、すべてのトレーニングデータをローカルに保ちながら、共有モデルを共同で学習することができる。
本稿では,異なるタイプの複数の画像群を特徴とする非IIDデータ環境の課題に対処する。
本稿では、潜在空間を分離し、個々のクライアントグループに適したデコーダブランチを構築するFissionVAEを紹介する。
論文 参考訳(メタデータ) (2024-08-30T08:22:30Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Federated Learning with GAN-based Data Synthesis for Non-IID Clients [8.304185807036783]
フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T11:43:25Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Federated Learning in Non-IID Settings Aided by Differentially Private
Synthetic Data [20.757477553095637]
Federated Learning(FL)は、クライアントが機械学習モデルを協調的にトレーニングすることを可能にする、プライバシプロモーティングフレームワークである。
連合学習における大きな課題は、局所データが不均一であるときに生じる。
我々は、クライアントが変動自動エンコーダをデプロイして、遅延データ表現の微分プライベートな手段を用いて、ローカルデータセットを合成するFLアルゴリズムであるFedDPMSを提案する。
論文 参考訳(メタデータ) (2022-06-01T18:00:48Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。