論文の概要: FedST: Secure Federated Shapelet Transformation for Time Series Classification
- arxiv url: http://arxiv.org/abs/2302.10631v4
- Date: Sat, 17 Aug 2024 17:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 04:48:49.056096
- Title: FedST: Secure Federated Shapelet Transformation for Time Series Classification
- Title(参考訳): FedST: 時系列分類のためのセキュアなフェデレーションシェイプレット変換
- Authors: Zhiyu Liang, Hongzhi Wang,
- Abstract要約: 本稿では,フェデレートラーニング(FL)シナリオにおいて,シェープレットに基づく時系列分類(TSC)モデルを構築する方法について検討する。
我々は,集中型シェイプレット変換法から拡張された新しいフェデレートTSCフレームワークであるFedSTを提案する。
- 参考スコア(独自算出の注目度): 6.282491852904721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores how to build a shapelet-based time series classification (TSC) model in the federated learning (FL) scenario, that is, using more data from multiple owners without actually sharing the data. We propose FedST, a novel federated TSC framework extended from a centralized shapelet transformation method. We recognize the federated shapelet search step as the kernel of FedST. Thus, we design a basic protocol for the FedST kernel that we prove to be secure and accurate. However, we identify that the basic protocol suffers from efficiency bottlenecks and the centralized acceleration techniques lose their efficacy due to the security issues. To speed up the federated protocol with security guarantee, we propose several optimizations tailored for the FL setting. Our theoretical analysis shows that the proposed methods are secure and more efficient. We conduct extensive experiments using both synthetic and real-world datasets. Empirical results show that our FedST solution is effective in terms of TSC accuracy, and the proposed optimizations can achieve three orders of magnitude of speedup.
- Abstract(参考訳): 本稿では,データ共有を行なわずに複数の所有者からより多くのデータを利用する,フェデレートラーニング(FL)シナリオにおいて,シェープレットに基づく時系列分類(TSC)モデルを構築する方法について検討する。
我々は,集中型シェイプレット変換法から拡張された新しいフェデレートTSCフレームワークであるFedSTを提案する。
我々はフェデレートされたシェープレット探索ステップをFedSTのカーネルとして認識する。
したがって、我々はFedSTカーネルの基本プロトコルを設計し、安全で正確であることを証明した。
しかし,基本プロトコルは効率のボトルネックに悩まされており,セキュリティ上の問題により中央集権的加速技術は効率を損なう。
セキュリティ保証付きフェデレーションプロトコルを高速化するため,FL設定に適した最適化をいくつか提案する。
理論的解析により,提案手法はより安全で効率的であることが示唆された。
我々は、合成データセットと実世界のデータセットの両方を用いて広範な実験を行う。
実験の結果,提案手法はTSCの精度において有効であり,提案手法は3桁の高速化を実現することができることがわかった。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - Secure Combination of Untrusted Time information Based on Optimized Dempster-Shafer Theory [24.333157091055327]
多重経路方式は時間遅延攻撃(TDA)の影響を低減させる効果的なセキュリティ対策と考えられる
本稿では,複数経路法に対して,Dempster-Shafer理論に基づくセキュアな組合せアルゴリズムを提案する。
理論的シミュレーションにより,提案アルゴリズムは単一経路に基づくフォールトトレラントアルゴリズム (FTA) や攻撃検出手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-06-19T13:15:12Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - CyclicFL: A Cyclic Model Pre-Training Approach to Efficient Federated Learning [33.250038477336425]
フェデレートラーニング(FL)は、高レベルのデータプライバシを保証するために、AI Internet of Things(AIoT)デバイス上で分散学習を可能にするために提案されている。
既存のFL法は、特に非IIDシナリオにおいて、収束が遅く、精度が低い。
本稿では,SGDプロセスの導出に有効な初期モデルを迅速に導出できるCyclicFLという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-28T13:28:34Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Data-driven Optimal Power Flow: A Physics-Informed Machine Learning
Approach [6.5382276424254995]
本稿では,SELMフレームワークに基づく最適電力フロー(OPF)のためのデータ駆動型アプローチを提案する。
データ駆動型OPF回帰フレームワークが開発され、OPFモデルの特徴を3段階に分解する。
IEEEおよびポーランドのベンチマークシステムにおいて,提案手法が他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-31T15:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。