論文の概要: Fast Deep Autoencoder for Federated learning
- arxiv url: http://arxiv.org/abs/2206.05136v2
- Date: Mon, 13 Jun 2022 15:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 12:09:48.187157
- Title: Fast Deep Autoencoder for Federated learning
- Title(参考訳): フェデレーション学習のための高速深層オートエンコーダ
- Authors: David Novoa-Paradela, Oscar Romero-Fontenla, Bertha
Guijarro-Berdi\~nas
- Abstract要約: DAEF(Deep Autoencoder for Federated Learning)は、ディープオートエンコーダの新規かつ高速かつプライバシ保護実装である。
従来のニューラルネットワークとは異なり、DAEFはディープオートエンコーダネットワークを非定型的にトレーニングし、トレーニング時間を劇的に短縮する。
この手法は、7つの実際の異常検出データセットを用いて従来の(定型的な)ディープオートエンコーダと比較して評価・比較されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a novel, fast and privacy preserving implementation of
deep autoencoders. DAEF (Deep Autoencoder for Federated learning), unlike
traditional neural networks, trains a deep autoencoder network in a
non-iterative way, which drastically reduces its training time. Its training
can be carried out in a distributed way (several partitions of the dataset in
parallel) and incrementally (aggregation of partial models), and due to its
mathematical formulation, the data that is exchanged does not endanger the
privacy of the users. This makes DAEF a valid method for edge computing and
federated learning scenarios. The method has been evaluated and compared to
traditional (iterative) deep autoencoders using seven real anomaly detection
datasets, and their performance have been shown to be similar despite DAEF's
faster training.
- Abstract(参考訳): 本稿では,ディープオートエンコーダの新規かつ高速かつプライバシ保護実装を提案する。
DAEF(Deep Autoencoder for Federated Learning)は、従来のニューラルネットワークとは異なり、ディープオートエンコーダネットワークを非定型的にトレーニングすることで、トレーニング時間を劇的に短縮する。
そのトレーニングは分散(データセットの分割を並行して行う)とインクリメンタル(部分モデルの集約)で行うことができ、数学的定式化のため、交換されるデータはユーザのプライバシを危険にさらすことはない。
これにより、DAEFはエッジコンピューティングとフェデレーション学習シナリオの有効な方法となる。
この手法は、7つの実際の異常検出データセットを用いた従来の(反復的な)ディープオートエンコーダと比較され、daefの高速トレーニングにもかかわらず、その性能が類似していることが示されている。
関連論文リスト
- Efficient Gesture Recognition on Spiking Convolutional Networks Through
Sensor Fusion of Event-Based and Depth Data [1.474723404975345]
本研究は,ジェスチャー認識のためのイベントおよび深度データを処理するスパイキング畳み込みニューラルネットワークを提案する。
このネットワークは、オープンソースのニューロモルフィックコンピューティングフレームワークLAVAを用いて、組込みシステム上でのオフライントレーニングと評価をシミュレートする。
論文 参考訳(メタデータ) (2024-01-30T14:42:35Z) - Differentiable Earth Mover's Distance for Data Compression at the
High-Luminosity LHC [1.8355959631840502]
我々は、地球移動者の距離の微分可能かつ高速な近似を学習するために、畳み込みニューラルネットワーク(CNN)を訓練する。
我々は、高輝度CERNにおけるデータ圧縮のために、オートエンコーダにインスパイアされたニューラルネットワーク(エンコーダNN)のトレーニングにこの微分近似を適用した。
そこで本研究では,CNN を用いて訓練したエンコーダ NN の性能が,平均二乗誤差に基づく損失関数付きトレーニングよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-07T18:23:38Z) - RGCVAE: Relational Graph Conditioned Variational Autoencoder for
Molecule Design [70.59828655929194]
ディープグラフ変分自動エンコーダは、この問題に対処可能な、最も強力な機械学習ツールの1つである。
i)新しい強力なグラフ同型ネットワークを利用した符号化ネットワーク,(ii)新しい確率的復号化コンポーネントを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:23:48Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Network Anomaly Detection Using Federated Learning [0.483420384410068]
我々は、効率的なネットワーク異常検出を可能にする堅牢でスケーラブルなフレームワークを導入する。
複数の参加者が共同でグローバルモデルをトレーニングするフェデレーション学習を活用します。
提案手法はUNSW-NB15データセットのベースライン機械学習手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-13T20:16:30Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - Efficient Encrypted Inference on Ensembles of Decision Trees [21.570003967858355]
データプライバシーに関する懸念は、しばしば機密個人データのクラウドベースの機械学習サービスの使用を妨げます。
複雑な決定木アンサンブルから抽出した知識を浅層ニューラルネットワークに伝達する枠組みを提案する。
当社のシステムは高度にスケーラブルで,バッチ暗号化された(134ビットのセキュリティ)データに対して,ミリ秒のアモートタイムで効率的な推論を行うことができる。
論文 参考訳(メタデータ) (2021-03-05T01:06:30Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。