論文の概要: Hierarchical fuzzy neural networks with privacy preservation for
heterogeneous big data
- arxiv url: http://arxiv.org/abs/2209.08467v1
- Date: Sun, 18 Sep 2022 03:53:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:58:25.385463
- Title: Hierarchical fuzzy neural networks with privacy preservation for
heterogeneous big data
- Title(参考訳): 階層型ファジィニューラルネットワークによる異種ビッグデータのプライバシ保護
- Authors: Leijie Zhang, Ye Shi, Yu-Cheng Chang, and Chin-Teng Lin
- Abstract要約: 不均一なビッグデータは、機械学習に多くの課題をもたらす。
プライバシー保護型階層型ファジィニューラルネットワーク(PP-HFNN)を提案する。
トレーニング手順全体がスケーラブルで高速で、バックプロパゲーションに基づいたメソッドのような勾配の解消に苦しむことはない。
- 参考スコア(独自算出の注目度): 29.65840169552303
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Heterogeneous big data poses many challenges in machine learning. Its
enormous scale, high dimensionality, and inherent uncertainty make almost every
aspect of machine learning difficult, from providing enough processing power to
maintaining model accuracy to protecting privacy. However, perhaps the most
imposing problem is that big data is often interspersed with sensitive personal
data. Hence, we propose a privacy-preserving hierarchical fuzzy neural network
(PP-HFNN) to address these technical challenges while also alleviating privacy
concerns. The network is trained with a two-stage optimization algorithm, and
the parameters at low levels of the hierarchy are learned with a scheme based
on the well-known alternating direction method of multipliers, which does not
reveal local data to other agents. Coordination at high levels of the hierarchy
is handled by the alternating optimization method, which converges very
quickly. The entire training procedure is scalable, fast and does not suffer
from gradient vanishing problems like the methods based on back-propagation.
Comprehensive simulations conducted on both regression and classification tasks
demonstrate the effectiveness of the proposed model.
- Abstract(参考訳): 不均一なビッグデータは、機械学習に多くの課題をもたらす。
その巨大なスケール、高次元性、および固有の不確実性は、十分な処理能力を提供することからモデル精度の維持、プライバシ保護に至るまで、機械学習のほぼすべての側面を困難にします。
しかし、おそらく最も重要な問題は、ビッグデータがしばしば機密性の高い個人データに分散していることだ。
そこで本研究では,プライバシ保護型階層型ファジィニューラルネットワーク(pp-hfnn)を提案する。
ネットワークは2段階最適化アルゴリズムで訓練され、階層の低レベルのパラメータは、他のエージェントに局所データを明かさない乗算器のよく知られた交互方向法に基づくスキームで学習される。
階層の高レベルの座標は交互最適化法によって処理され、非常に早く収束する。
トレーニング手順全体がスケーラブルで高速で、バックプロパゲーションに基づいたメソッドのような勾配の解消に苦しむことはない。
回帰タスクと分類タスクの両方で実施した総合シミュレーションは,提案モデルの有効性を実証する。
関連論文リスト
- Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - Wide Network Learning with Differential Privacy [7.453881927237143]
現在のニューラルネットの世代は、最も実質的に関連するプライバシトレーニング体制下で大きな損失を被っている。
プライベートな経験最小化(ERM)の勾配を生かしたこれらのモデルを訓練するための一般的なアプローチを開発する。
同じパラメータの数に従って、ニューラルネットワークをプライベートにトレーニングするための新しいアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-01T20:31:50Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Real-time Federated Evolutionary Neural Architecture Search [14.099753950531456]
フェデレーション学習(Federated Learning)は、プライバシ保護のための分散機械学習アプローチである。
本稿では、モデル性能を最適化するだけでなく、局所的なペイロードを削減するリアルタイムフェデレーションニューラルネットワーク探索への進化的アプローチを提案する。
このようにして、進化的最適化に必要な計算・通信コストを効果的に削減し、局所モデルの大きな性能変動を回避する。
論文 参考訳(メタデータ) (2020-03-04T17:03:28Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。