論文の概要: FedST: Secure Federated Shapelet Transformation for Time Series Classification
- arxiv url: http://arxiv.org/abs/2302.10631v4
- Date: Sat, 17 Aug 2024 17:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 04:48:49.056096
- Title: FedST: Secure Federated Shapelet Transformation for Time Series Classification
- Title(参考訳): FedST: 時系列分類のためのセキュアなフェデレーションシェイプレット変換
- Authors: Zhiyu Liang, Hongzhi Wang,
- Abstract要約: 本稿では,フェデレートラーニング(FL)シナリオにおいて,シェープレットに基づく時系列分類(TSC)モデルを構築する方法について検討する。
我々は,集中型シェイプレット変換法から拡張された新しいフェデレートTSCフレームワークであるFedSTを提案する。
- 参考スコア(独自算出の注目度): 6.282491852904721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores how to build a shapelet-based time series classification (TSC) model in the federated learning (FL) scenario, that is, using more data from multiple owners without actually sharing the data. We propose FedST, a novel federated TSC framework extended from a centralized shapelet transformation method. We recognize the federated shapelet search step as the kernel of FedST. Thus, we design a basic protocol for the FedST kernel that we prove to be secure and accurate. However, we identify that the basic protocol suffers from efficiency bottlenecks and the centralized acceleration techniques lose their efficacy due to the security issues. To speed up the federated protocol with security guarantee, we propose several optimizations tailored for the FL setting. Our theoretical analysis shows that the proposed methods are secure and more efficient. We conduct extensive experiments using both synthetic and real-world datasets. Empirical results show that our FedST solution is effective in terms of TSC accuracy, and the proposed optimizations can achieve three orders of magnitude of speedup.
- Abstract(参考訳): 本稿では,データ共有を行なわずに複数の所有者からより多くのデータを利用する,フェデレートラーニング(FL)シナリオにおいて,シェープレットに基づく時系列分類(TSC)モデルを構築する方法について検討する。
我々は,集中型シェイプレット変換法から拡張された新しいフェデレートTSCフレームワークであるFedSTを提案する。
我々はフェデレートされたシェープレット探索ステップをFedSTのカーネルとして認識する。
したがって、我々はFedSTカーネルの基本プロトコルを設計し、安全で正確であることを証明した。
しかし,基本プロトコルは効率のボトルネックに悩まされており,セキュリティ上の問題により中央集権的加速技術は効率を損なう。
セキュリティ保証付きフェデレーションプロトコルを高速化するため,FL設定に適した最適化をいくつか提案する。
理論的解析により,提案手法はより安全で効率的であることが示唆された。
我々は、合成データセットと実世界のデータセットの両方を用いて広範な実験を行う。
実験の結果,提案手法はTSCの精度において有効であり,提案手法は3桁の高速化を実現することができることがわかった。
関連論文リスト
- Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Efficient Sparse Secure Aggregation for Federated Learning [0.20052993723676896]
我々は,圧縮に基づくフェデレーション手法を付加的な秘密共有に適用し,効率的なセキュアなアグリゲーションプロトコルを実現する。
悪意のある敵に対するプライバシーの証明と、半正直な設定でその正しさを証明します。
セキュアアグリゲーションに関する従来の研究と比較すると、我々のプロトコルは通信コストが低く、同じ精度で適用可能なコストがかかる。
論文 参考訳(メタデータ) (2020-07-29T14:28:30Z) - Data-driven Optimal Power Flow: A Physics-Informed Machine Learning
Approach [6.5382276424254995]
本稿では,SELMフレームワークに基づく最適電力フロー(OPF)のためのデータ駆動型アプローチを提案する。
データ駆動型OPF回帰フレームワークが開発され、OPFモデルの特徴を3段階に分解する。
IEEEおよびポーランドのベンチマークシステムにおいて,提案手法が他の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-31T15:41:24Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。