論文の概要: Federated Fuzzy Neural Network with Evolutionary Rule Learning
- arxiv url: http://arxiv.org/abs/2210.14393v1
- Date: Wed, 26 Oct 2022 00:12:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 13:02:36.989742
- Title: Federated Fuzzy Neural Network with Evolutionary Rule Learning
- Title(参考訳): 進化的ルール学習を用いたフェデレーションファジィニューラルネットワーク
- Authors: Leijie Zhang, Ye Shi, Yu-Cheng Chang, Chin-Teng Lin
- Abstract要約: 非IID問題やデータ不確実性に対処するために,進化規則学習(ERL)を用いたフェデレーションファジィニューラルネットワーク(FedFNN)を提案する。
FedFNNは、サーバ内のグローバルなルールセットと、各ローカルクライアントに対するこれらのルールのパーソナライズされたサブセットを維持している。
ERLは、生物進化の理論にインスパイアされ、優れたルールを活性化し、非IIDデータでローカルクライアントの劣るルールを非活性化しながら、規則のバリエーションを促進する。
- 参考スコア(独自算出の注目度): 32.399673207308325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed fuzzy neural networks (DFNNs) have attracted increasing attention
recently due to their learning abilities in handling data uncertainties in
distributed scenarios. However, it is challenging for DFNNs to handle cases in
which the local data are non-independent and identically distributed (non-IID).
In this paper, we propose a federated fuzzy neural network (FedFNN) with
evolutionary rule learning (ERL) to cope with non-IID issues as well as data
uncertainties. The FedFNN maintains a global set of rules in a server and a
personalized subset of these rules for each local client. ERL is inspired by
the theory of biological evolution; it encourages rule variations while
activating superior rules and deactivating inferior rules for local clients
with non-IID data. Specifically, ERL consists of two stages in an iterative
procedure: a rule cooperation stage that updates global rules by aggregating
local rules based on their activation statuses and a rule evolution stage that
evolves the global rules and updates the activation statuses of the local
rules. This procedure improves both the generalization and personalization of
the FedFNN for dealing with non-IID issues and data uncertainties. Extensive
experiments conducted on a range of datasets demonstrate the superiority of the
FedFNN over state-of-the-art methods.
- Abstract(参考訳): 分散ファジィニューラルネットワーク(DFNN)は、分散シナリオにおけるデータの不確実性を扱う学習能力のため、近年注目を集めている。
しかし、DFNNがローカルデータが非独立で同一に分散している場合(非IID)を扱うことは困難である。
本稿では,非IID問題とデータ不確実性に対応するために,進化規則学習(ERL)を備えたフェデレーションファジィニューラルネットワーク(FedFNN)を提案する。
FedFNNは、サーバ内のグローバルなルールセットと、各ローカルクライアントに対するこれらのルールのパーソナライズされたサブセットを維持している。
ERLは生物進化の理論にインスパイアされ、優れたルールを活性化し、非IIDデータでローカルクライアントの劣るルールを非活性化する。
具体的には、erlは反復手順の2つの段階で構成されている: 活性化状態に基づいてローカルルールを集約してグローバルルールを更新するルール協調ステージと、グローバルルールを進化させ、ローカルルールのアクティベーション状態を更新するルール進化ステージである。
この手順は、非IID問題やデータ不確実性を扱うためのFedFNNの一般化とパーソナライズの両方を改善する。
様々なデータセットで実施された広範囲な実験により、fedfnnが最先端の手法よりも優れていることが示されている。
関連論文リスト
- Leader-Follower Neural Networks with Local Error Signals Inspired by
Complex Collectives [7.504310312530346]
自然の集合的アンサンブルにインスパイアされたニューラルネットワークアーキテクチャを提案する。
我々は、ローカルエラー信号を活用し、バックプロパゲーション(BP)とグローバルロスを組み込むことで、リーダー・フォロワーニューラルネットワーク(LFNN)を訓練する。
我々のLFNNは、MNISTやCIFAR-10の従来のBPフリーアルゴリズムよりも大幅にエラー率を低くし、BP対応ベースラインを超えています。
論文 参考訳(メタデータ) (2023-10-11T20:47:57Z) - Federated Neuro-Symbolic Learning [39.04545654772026]
FL通信媒体として潜伏変数を用いたFedNSL(Federated Neuro-Symbolic Learning framework)を提案する。
FedNSLは、単純で効果的なKullback-Leibler(KL)分散制約によって規則分布を特定し、対処することができる。
合成データと実世界のデータに基づく大規模な実験は、5つの最先端手法と比較して、FedNSLの顕著な優位性を示している。
論文 参考訳(メタデータ) (2023-08-29T14:20:17Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Variational Inference-Based Dropout in Recurrent Neural Networks for
Slot Filling in Spoken Language Understanding [9.93926378136064]
本稿では,変動型リカレントニューラルネットワーク(RNN)を,変動型推論(VI)に基づくドロップアウト正規化で一般化する。
ATISデータセットの実験から、VIベースのドロップアウト正規化による変動RNNは、素早いドロップアウト正規化RNNベースのベースラインシステムを大幅に改善する可能性が示唆された。
論文 参考訳(メタデータ) (2020-08-23T22:05:54Z) - Resource Allocation via Graph Neural Networks in Free Space Optical
Fronthaul Networks [119.81868223344173]
本稿では,自由空間光(FSO)フロントホールネットワークにおける最適資源割り当てについて検討する。
我々は、FSOネットワーク構造を利用するために、ポリシーパラメータ化のためのグラフニューラルネットワーク(GNN)を検討する。
本アルゴリズムは,システムモデルに関する知識が不要なモデルフリーでGNNを訓練するために開発された。
論文 参考訳(メタデータ) (2020-06-26T14:20:48Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z) - VOWEL: A Local Online Learning Rule for Recurrent Networks of
Probabilistic Spiking Winner-Take-All Circuits [38.518936229794214]
WTA-SNNは、値付き多値イベントの情報を検出することができる。
WTA-SNNをトレーニングするための既存のスキームは、レートエンコーディングソリューションに限られている。
VOWEL と呼ばれる WTA-SNN のための変動型オンラインローカルトレーニングルールを開発した。
論文 参考訳(メタデータ) (2020-04-20T16:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。