論文の概要: LSTMSPLIT: Effective SPLIT Learning based LSTM on Sequential Time-Series
Data
- arxiv url: http://arxiv.org/abs/2203.04305v1
- Date: Tue, 8 Mar 2022 11:44:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 14:52:50.104809
- Title: LSTMSPLIT: Effective SPLIT Learning based LSTM on Sequential Time-Series
Data
- Title(参考訳): LSTMSPLIT: 逐次時系列データに基づく効率的なSPLIT学習型LSTM
- Authors: Lianlian Jiang, Yuexuan Wang, Wenyi Zheng, Chao Jin, Zengxiang Li, Sin
G. Teo
- Abstract要約: 本稿では,LSTMネットワークを用いたSLアーキテクチャを用いて,時系列データを複数のクライアントで分類するLSTMSPLITを提案する。
提案手法であるLSTMSPLITは, 心電図データセットとヒト活動認識データセットを用いたSplit-1DCNN法と比較して, 精度が向上した。
- 参考スコア(独自算出の注目度): 3.9011223632827385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) and split learning (SL) are the two popular
distributed machine learning (ML) approaches that provide some data privacy
protection mechanisms. In the time-series classification problem, many
researchers typically use 1D convolutional neural networks (1DCNNs) based on
the SL approach with a single client to reduce the computational overhead at
the client-side while still preserving data privacy. Another method, recurrent
neural network (RNN), is utilized on sequentially partitioned data where
segments of multiple-segment sequential data are distributed across various
clients. However, to the best of our knowledge, it is still not much work done
in SL with long short-term memory (LSTM) network, even the LSTM network is
practically effective in processing time-series data. In this work, we propose
a new approach, LSTMSPLIT, that uses SL architecture with an LSTM network to
classify time-series data with multiple clients. The differential privacy (DP)
is applied to solve the data privacy leakage. The proposed method, LSTMSPLIT,
has achieved better or reasonable accuracy compared to the Split-1DCNN method
using the electrocardiogram dataset and the human activity recognition dataset.
Furthermore, the proposed method, LSTMSPLIT, can also achieve good accuracy
after applying differential privacy to preserve the user privacy of the cut
layer of the LSTMSPLIT.
- Abstract(参考訳): フェデレートラーニング(FL)とスプリットラーニング(SL)は、データプライバシ保護メカニズムを提供する2つの一般的な分散機械学習(ML)アプローチである。
時系列分類問題では、多くの研究者がSLアプローチに基づく1D畳み込みニューラルネットワーク(1DCNN)を単一のクライアントで使用し、データのプライバシを保ちながらクライアント側の計算オーバーヘッドを低減する。
もうひとつの方法であるリカレントニューラルネットワーク(RNN)は、複数のセグメントのシーケンシャルデータのセグメントをさまざまなクライアントに分散するシーケンシャルなパーティショニングデータに使用される。
しかし、我々の知る限り、LSTMネットワークでさえ時系列データを処理するのに事実上有効であり、長い短期記憶(LSTM)ネットワークを持つSLでは、まだ多くの作業がおこなわれていない。
本研究では,LSTMネットワークを用いたSLアーキテクチャを用いて,時系列データを複数のクライアントで分類するLSTMSPLITを提案する。
データプライバシー漏洩を解決するために、差分プライバシー(DP)が適用される。
提案手法であるLSTMSPLITは,心電図データセットとヒト活動認識データセットを用いたSplit-1DCNN法と比較して,精度が向上した。
さらに,LSTMSPLITのカット層のユーザプライバシを保持するために差分プライバシーを適用した上で,その精度も向上する。
関連論文リスト
- Multi-Scale Convolutional LSTM with Transfer Learning for Anomaly Detection in Cellular Networks [1.1432909951914676]
本研究では,トランスファーラーニング(TL)を用いたマルチスケール畳み込みLSTMによるセルネットワークの異常検出手法を提案する。
モデルは最初、公開データセットを使用してスクラッチからトレーニングされ、典型的なネットワーク動作を学習する。
我々は,スクラッチから訓練したモデルの性能と,TLを用いた微調整モデルの性能を比較した。
論文 参考訳(メタデータ) (2024-09-30T17:51:54Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Mitigating Catastrophic Forgetting in Long Short-Term Memory Networks [7.291687946822538]
シーケンシャルデータに対する継続的な学習は多くの機械学習(ML)デプロイメントにおいて重要である。
LSTMネットワークは破滅的な忘れ込みに悩まされており、複数のタスクを継続的に学習する能力に制限がある。
LSTMネットワークにおける破滅的な忘れは、2つの斬新で容易に実装可能な方法で克服できることがわかった。
論文 参考訳(メタデータ) (2023-05-26T20:17:18Z) - Distributed LSTM-Learning from Differentially Private Label Proportions [0.9281671380673306]
微分プライバシーと分散LSTM学習を併用した2つの効率的なモデルを提案する。
この評価は、パフォーマンスとデータプライバシのトレードオフを示すものだ。
論文 参考訳(メタデータ) (2023-01-15T22:11:07Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - FedSL: Federated Split Learning on Distributed Sequential Data in
Recurrent Neural Networks [4.706263507340607]
フェデレートラーニング(FL)とスプリットラーニング(SL)はプライバシ保護マシンラーニング(ML)技術である。
既存のFLとSLのアプローチは、水平または垂直に分割されたデータに作用する。
本稿では,分散シーケンシャルデータに基づくモデルのトレーニングを行うための,新しいフェデレーション分割学習フレームワークであるFedSLを提案する。
論文 参考訳(メタデータ) (2020-11-06T04:00:39Z) - Automatic Remaining Useful Life Estimation Framework with Embedded
Convolutional LSTM as the Backbone [5.927250637620123]
組込み畳み込みLSTM(E NeuralTM)と呼ばれる新しいLSTM変種を提案する。
ETMでは、異なる1次元の畳み込みの群がLSTM構造に埋め込まれている。
RUL推定のために広く用いられているいくつかのベンチマークデータセットに対する最先端のアプローチよりも,提案したEMMアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-10T08:34:20Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。