論文の概要: Aggregation in the Mirror Space (AIMS): Fast, Accurate Distributed
Machine Learning in Military Settings
- arxiv url: http://arxiv.org/abs/2210.16181v1
- Date: Fri, 28 Oct 2022 14:51:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:37:37.306041
- Title: Aggregation in the Mirror Space (AIMS): Fast, Accurate Distributed
Machine Learning in Military Settings
- Title(参考訳): ミラー空間におけるアグリゲーション(aims) : 軍事環境での高速で正確な分散機械学習
- Authors: Ryan Yang, Haizhou Du, Andre Wibisono, Patrick Baker
- Abstract要約: AIMSは、DML収束率を最大57%向上させ、接続性の弱いより多くのデバイスに十分スケールすることができる。
AIMSは、DML収束率を最大57%向上させ、接続性の弱いより多くのデバイスに十分スケールすることができる。
- 参考スコア(独自算出の注目度): 3.9435196236748107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed machine learning (DML) can be an important capability for modern
military to take advantage of data and devices distributed at multiple vantage
points to adapt and learn. The existing distributed machine learning
frameworks, however, cannot realize the full benefits of DML, because they are
all based on the simple linear aggregation framework, but linear aggregation
cannot handle the $\textit{divergence challenges}$ arising in military
settings: the learning data at different devices can be heterogeneous
($\textit{i.e.}$, Non-IID data), leading to model divergence, but the ability
for devices to communicate is substantially limited ($\textit{i.e.}$, weak
connectivity due to sparse and dynamic communications), reducing the ability
for devices to reconcile model divergence. In this paper, we introduce a novel
DML framework called aggregation in the mirror space (AIMS) that allows a DML
system to introduce a general mirror function to map a model into a mirror
space to conduct aggregation and gradient descent. Adapting the convexity of
the mirror function according to the divergence force, AIMS allows automatic
optimization of DML. We conduct both rigorous analysis and extensive
experimental evaluations to demonstrate the benefits of AIMS. For example, we
prove that AIMS achieves a loss of
$O\left((\frac{m^{r+1}}{T})^{\frac1r}\right)$ after $T$ network-wide updates,
where $m$ is the number of devices and $r$ the convexity of the mirror
function, with existing linear aggregation frameworks being a special case with
$r=2$. Our experimental evaluations using EMANE (Extendable Mobile Ad-hoc
Network Emulator) for military communications settings show similar results:
AIMS can improve DML convergence rate by up to 57\% and scale well to more
devices with weak connectivity, all with little additional computation overhead
compared to traditional linear aggregation.
- Abstract(参考訳): 分散機械学習(DML)は、現代の軍にとって、適応と学習のために複数の領域に分散したデータとデバイスを活用する重要な能力である。
The existing distributed machine learning frameworks, however, cannot realize the full benefits of DML, because they are all based on the simple linear aggregation framework, but linear aggregation cannot handle the $\textit{divergence challenges}$ arising in military settings: the learning data at different devices can be heterogeneous ($\textit{i.e.}$, Non-IID data), leading to model divergence, but the ability for devices to communicate is substantially limited ($\textit{i.e.}$, weak connectivity due to sparse and dynamic communications), reducing the ability for devices to reconcile model divergence.
本稿では,鏡空間におけるアグリゲーション(アグリゲーション)と呼ばれる新しいDMLフレームワークを導入し,一般的なミラー関数を導入してモデルをミラー空間にマッピングし,アグリゲーションと勾配降下を行う。
発散力に応じてミラー関数の凸性を適用することで、AIMSはDMLの自動最適化を可能にする。
我々はAIMSの利点を実証するために厳密な分析と広範な実験的評価を行う。
例えば、aimは$t$ネットワーク全体の更新後に$o\left((\frac{m^{r+1}}{t})^{\frac1r}\right)が失われることを証明する。$m$はデバイス数であり、$r$はミラー関数の凸性であり、既存の線形集約フレームワークは$r=2$の特別なケースである。
軍事通信設定にEMANE(Extendable Mobile Ad-hoc Network Emulator)を用いた実験では,DMLコンバージェンス率を最大57倍に向上し,接続性の弱いデバイスにも拡張可能である。
関連論文リスト
- Mirror Diffusion Models for Constrained and Watermarked Generation [41.27274841596343]
ミラー拡散モデル(MDM)は、トラクタビリティを損なうことなく凸制約セット上のデータを生成する新しい拡散モデルである。
安全とプライバシーのために、我々は、生成したデータに目に見えないが定量的な情報を埋め込む新しいメカニズムとして制約セットを探求する。
私たちの研究は、複雑なドメイン上での抽出可能な拡散を学習する新しいアルゴリズムの機会をもたらします。
論文 参考訳(メタデータ) (2023-10-02T14:26:31Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Federated Empirical Risk Minimization via Second-Order Method [18.548661105227488]
連合学習環境下での一般的な経験的リスク最小化問題を解決するためのインテリアポイント法(IPM)を提案する。
IPMの各イテレーションの通信複雑性は$tildeO(d3/2)$であり、$d$はデータセットの次元(つまり、多くの機能)である。
論文 参考訳(メタデータ) (2023-05-27T14:23:14Z) - FeDXL: Provable Federated Learning for Deep X-Risk Optimization [105.17383135458897]
我々は、既存のアルゴリズムが適用できないXリスクのファミリーを最適化するために、新しい連邦学習(FL)問題に取り組む。
Xリスクに対するFLアルゴリズムを設計する際の課題は、複数のマシンに対する目的の非可逆性と、異なるマシン間の相互依存にある。
論文 参考訳(メタデータ) (2022-10-26T00:23:36Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Achieving Efficient Distributed Machine Learning Using a Novel
Non-Linear Class of Aggregation Functions [9.689867512720083]
時間的変化のあるネットワーク上での分散機械学習(DML)は、分散化されたMLアプリケーションを開発する上で有効である。
本稿では,時間変動ネットワーク上で効率的なDMLを実現するために,モデル集約関数の非線形クラスを提案する。
論文 参考訳(メタデータ) (2022-01-29T03:43:26Z) - A Wasserstein Minimax Framework for Mixed Linear Regression [69.40394595795544]
マルチモーダル分布は、学習タスクにおいてクラスタ化されたデータをモデル化するために一般的に使用される。
混合線形回帰問題に対する最適輸送ベースフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-14T16:03:51Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。