論文の概要: Mosaic Learning: A Framework for Decentralized Learning with Model Fragmentation
- arxiv url: http://arxiv.org/abs/2602.04352v1
- Date: Wed, 04 Feb 2026 09:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.45347
- Title: Mosaic Learning: A Framework for Decentralized Learning with Model Fragmentation
- Title(参考訳): Mosaic Learning: モデルフラグメンテーションによる分散学習フレームワーク
- Authors: Sayan Biswas, Davide Frey, Romaric Gaudel, Nirupam Gupta, Anne-Marie Kermarrec, Dimitri Lerévérend, Rafael Pires, Rishi Sharma, François Taïani, Martijn de Vos,
- Abstract要約: 分散学習(DL)は、中央サーバーなしで協調機械学習(ML)を可能にする。
私たちは、モデルを断片に分解し、それらをネットワーク全体で独立に分散するDLフレームワークであるMosaic Learningを紹介します。
我々は,4つの学習課題におけるモザイク学習を実証的に評価し,最大12ポイントのノードレベルのテスト精度を疫学学習と比較した。
- 参考スコア(独自算出の注目度): 9.43190426811795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized learning (DL) enables collaborative machine learning (ML) without a central server, making it suitable for settings where training data cannot be centrally hosted. We introduce Mosaic Learning, a DL framework that decomposes models into fragments and disseminates them independently across the network. Fragmentation reduces redundant communication across correlated parameters and enables more diverse information propagation without increasing communication cost. We theoretically show that Mosaic Learning (i) shows state-of-the-art worst-case convergence rate, and (ii) leverages parameter correlation in an ML model, improving contraction by reducing the highest eigenvalue of a simplified system. We empirically evaluate Mosaic Learning on four learning tasks and observe up to 12 percentage points higher node-level test accuracy compared to epidemic learning (EL), a state-of-the-art baseline. In summary, Mosaic Learning improves DL performance without sacrificing its utility or efficiency, and positions itself as a new DL standard.
- Abstract(参考訳): 分散学習(DL)は、中央サーバーを使わずにコラボレーティブ機械学習(ML)を可能にするため、トレーニングデータを集中的にホストできない設定に適している。
私たちは、モデルを断片に分解し、それらをネットワーク全体で独立に分散するDLフレームワークであるMosaic Learningを紹介します。
フラグメンテーションは、相関パラメータ間の冗長な通信を低減し、通信コストを増大させることなく、より多様な情報伝達を可能にする。
理論的にはモザイク学習は
(i)最先端の最悪の収束率を示し、
(II) MLモデルのパラメータ相関を利用して, 単純化されたシステムの最大固有値を削減することにより, 縮退を改善する。
我々は4つの学習課題におけるモザイク学習を実証的に評価し、最先端のベースラインである流行学習(EL)と比較して最大12ポイント高いノードレベルのテスト精度を観測した。
要約すると、Mosaic Learningは実用性や効率性を犠牲にすることなくDL性能を改善し、自身を新しいDL標準として位置づける。
関連論文リスト
- Certified Unlearning in Decentralized Federated Learning [24.229643475639293]
分散連合学習(DFL)では、クライアントがローカル更新を隣人とのみ交換することで、モデル情報がネットワーク全体に伝播し混在する。
ニュートンスタイルの更新に基づくDFLのための新しい認定アンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-10T05:39:24Z) - SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Exposing the Vulnerability of Decentralized Learning to Membership Inference Attacks Through the Lens of Graph Mixing [1.6305028013559888]
MIAの脆弱性は各ノードが行う局所モデル混合戦略と大きく相関していることを示す。
また、他のプライバシー保護技術と組み合わせることで、混合特性の強化が極めて有益であることを実証的に示す。
本稿は,MIAに脆弱性を設計することで脆弱性を減らす分散型学習システムを考案した際の教訓をまとめたものである。
論文 参考訳(メタデータ) (2024-12-17T12:02:47Z) - MLAAN: Scaling Supervised Local Learning with Multilaminar Leap Augmented Auxiliary Network [4.396837128416218]
MLAAN(Multilaminar Leap Augmented Auxiliary Network)を提案する。
MLAANは、独立およびカスケードされた補助ネットワークを通じて、ローカルおよびグローバル両方の特徴をキャプチャする。
さらに,ローカルモジュール間の情報交換を容易にするために,指数移動平均 (EMA) 法を用いた拡張補助ネットワーク LAM を設計する。
CIFAR-10, STL-10, SVHN, ImageNetデータセットを用いた実験により, MLAANが既存のローカル学習フレームワークにシームレスに統合可能であることを示す。
論文 参考訳(メタデータ) (2024-06-24T13:30:55Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。