論文の概要: A Distributed Computation Model Based on Federated Learning Integrates
Heterogeneous models and Consortium Blockchain for Solving Time-Varying
Problems
- arxiv url: http://arxiv.org/abs/2306.16023v1
- Date: Wed, 28 Jun 2023 08:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:07:46.193878
- Title: A Distributed Computation Model Based on Federated Learning Integrates
Heterogeneous models and Consortium Blockchain for Solving Time-Varying
Problems
- Title(参考訳): フェデレーション学習に基づく分散計算モデル : 時間変動問題を解決するための異種モデルとコンソーシアムブロックチェーンの統合
- Authors: Zhihao Hao, Guancheng Wang, Chunwei Tian, Bob Zhang
- Abstract要約: 本稿では,コンソーシアムブロックチェーンネットワークに基づく分散計算モデル(DCM)を提案する。
実験では,DCMの効率を検証し,提案モデルが多くの最先端モデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 35.69540692050138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recurrent neural network has been greatly developed for effectively
solving time-varying problems corresponding to complex environments. However,
limited by the way of centralized processing, the model performance is greatly
affected by factors like the silos problems of the models and data in reality.
Therefore, the emergence of distributed artificial intelligence such as
federated learning (FL) makes it possible for the dynamic aggregation among
models. However, the integration process of FL is still server-dependent, which
may cause a great risk to the overall model. Also, it only allows collaboration
between homogeneous models, and does not have a good solution for the
interaction between heterogeneous models. Therefore, we propose a Distributed
Computation Model (DCM) based on the consortium blockchain network to improve
the credibility of the overall model and effective coordination among
heterogeneous models. In addition, a Distributed Hierarchical Integration (DHI)
algorithm is also designed for the global solution process. Within a group,
permissioned nodes collect the local models' results from different
permissionless nodes and then sends the aggregated results back to all the
permissionless nodes to regularize the processing of the local models. After
the iteration is completed, the secondary integration of the local results will
be performed between permission nodes to obtain the global results. In the
experiments, we verify the efficiency of DCM, where the results show that the
proposed model outperforms many state-of-the-art models based on a federated
learning framework.
- Abstract(参考訳): リカレントニューラルネットワークは,複雑な環境に対応する時間変動問題を効果的に解決するために開発された。
しかし、集中処理の方法によって制限されたモデル性能は、実際のモデルやデータのサイロ問題のような要因によって大きく影響を受ける。
したがって、フェデレーション学習(fl)のような分散人工知能の出現は、モデル間の動的集約を可能にする。
しかしながら、flの統合プロセスは依然としてサーバに依存しており、モデル全体に大きなリスクをもたらす可能性がある。
また、均質なモデル間の協調のみが可能であり、異質なモデル間の相互作用に対する良い解決策を持っていない。
そこで本研究では,コンソーシアムブロックチェーンネットワークに基づく分散計算モデル(DCM)を提案する。
さらに、グローバルソリューションプロセスのために分散階層統合(DHI)アルゴリズムも設計されている。
グループ内のパーミッションノードは、異なるパーミッションレスノードからローカルモデルの結果を収集し、集約された結果をすべてのパーミッションレスノードに送信し、ローカルモデルの処理を規則化する。
イテレーションが完了すると、ローカルな結果の二次的な統合がパーミッションノード間で行われ、グローバルな結果が得られる。
実験では,DCMの効率を検証し,提案したモデルが,フェデレート学習フレームワークに基づく多くの最先端モデルより優れていることを示す。
関連論文リスト
- FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Decentralized Transformers with Centralized Aggregation are Sample-Efficient Multi-Agent World Models [106.94827590977337]
本稿では,分散化された局所力学を拡張性のために学習するマルチエージェントRL(MARL)の新たな世界モデルを提案する。
また、集中表現アグリゲーションを可能にする効果的なソリューションとしてPerceiver Transformerを導入する。
Starcraft Multi-Agent Challenge (SMAC) の結果は、サンプル効率と全体的な性能の両方において、強力なモデルフリーアプローチと既存のモデルベース手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-06-22T12:40:03Z) - Vanishing Variance Problem in Fully Decentralized Neural-Network Systems [0.8212195887472242]
フェデレートラーニングとゴシップラーニングは、データプライバシの懸念を軽減するために考案された方法論だ。
本研究では,分散補正モデル平均化アルゴリズムを提案する。
シミュレーションの結果,Gossip学習は,フェデレート学習に匹敵する収束効率を実現することができることがわかった。
論文 参考訳(メタデータ) (2024-04-06T12:49:20Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Decentralized Event-Triggered Federated Learning with Heterogeneous
Communication Thresholds [12.513477328344255]
ネットワークグラフトポロジ上での非同期なイベントトリガーによるコンセンサス反復による分散モデルアグリゲーションのための新しい手法を提案する。
本手法は,分散学習とグラフコンセンサス文学における標準的な仮定の下で,グローバルな最適学習モデルを実現することを実証する。
論文 参考訳(メタデータ) (2022-04-07T20:35:37Z) - FedHM: Efficient Federated Learning for Heterogeneous Models via
Low-rank Factorization [16.704006420306353]
スケーラブルなフェデレート学習フレームワークは、異なる計算能力と通信能力を備えた異種クライアントに対処する必要がある。
本稿では,不均一な低ランクモデルをクライアントに分散し,それらをグローバルなフルランクモデルに集約する,新しいフェデレーションモデル圧縮フレームワークであるFedHMを提案する。
我々のソリューションは、計算複雑性の異なる異種局所モデルの訓練を可能にし、単一の大域的モデルを集約する。
論文 参考訳(メタデータ) (2021-11-29T16:11:09Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。