論文の概要: Federated Learning in Open- and Closed-Loop EMG Decoding: A Privacy and Performance Perspective
- arxiv url: http://arxiv.org/abs/2507.12652v1
- Date: Wed, 16 Jul 2025 21:59:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.282292
- Title: Federated Learning in Open- and Closed-Loop EMG Decoding: A Privacy and Performance Perspective
- Title(参考訳): オープンかつクローズドなEMGデコーディングにおけるフェデレーション学習 - プライバシとパフォーマンスの観点から
- Authors: Kai Malcolm, César Uribe, Momona Yamagami,
- Abstract要約: 侵略的かつ非侵襲的なニューラルインターフェースは、次世代技術のための高帯域入力デバイスとして有望である。
神経信号は、個人のアイデンティティと健康に関する機密情報を本質的にエンコードし、デコーダのトレーニングのためのデータ共有は、重要なプライバシー上の課題である。
FLに基づくニューラルデコーディングを導入し,高次元筋電図信号を用いてその性能とプライバシを評価する。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Invasive and non-invasive neural interfaces hold promise as high-bandwidth input devices for next-generation technologies. However, neural signals inherently encode sensitive information about an individual's identity and health, making data sharing for decoder training a critical privacy challenge. Federated learning (FL), a distributed, privacy-preserving learning framework, presents a promising solution, but it remains unexplored in closed-loop adaptive neural interfaces. Here, we introduce FL-based neural decoding and systematically evaluate its performance and privacy using high-dimensional electromyography signals in both open- and closed-loop scenarios. In open-loop simulations, FL significantly outperformed local learning baselines, demonstrating its potential for high-performance, privacy-conscious neural decoding. In contrast, closed-loop user studies required adapting FL methods to accommodate single-user, real-time interactions, a scenario not supported by standard FL. This modification resulted in local learning decoders surpassing the adapted FL approach in closed-loop performance, yet local learning still carried higher privacy risks. Our findings highlight a critical performance-privacy tradeoff in real-time adaptive applications and indicate the need for FL methods specifically designed for co-adaptive, single-user applications.
- Abstract(参考訳): 侵略的かつ非侵襲的なニューラルインターフェースは、次世代技術のための高帯域入力デバイスとして有望である。
しかし、神経信号は本質的に個人のアイデンティティと健康に関する機密情報を符号化し、デコーダのトレーニングのためのデータ共有が重要なプライバシー上の課題となる。
分散プライバシ保護学習フレームワークであるフェデレートラーニング(FL)は、有望なソリューションを提供するが、クローズドループ適応型ニューラルネットワークでは探索されていない。
本稿では,FLに基づくニューラルデコードを導入し,オープンループとクローズループの両方のシナリオで高次元筋電図信号を用いて,その性能とプライバシを体系的に評価する。
オープンループシミュレーションでは、FLは局所学習ベースラインを著しく上回り、高性能でプライバシを重視したニューラルデコーディングの可能性を示した。
対照的に、クローズドループのユーザスタディでは、標準のFLではサポートされないシナリオである単一ユーザとリアルタイムのインタラクションに対応するためにFLメソッドを適用する必要があった。
この修正により、ローカル学習デコーダはクローズループ性能において適応FLアプローチを上回る結果となったが、ローカル学習は依然として高いプライバシーリスクを負った。
本研究は, リアルタイム適応型アプリケーションにおいて重要なパフォーマンスプライバシトレードオフを浮き彫りにして, 協調適応型単一ユーザアプリケーション用に特別に設計されたFLメソッドの必要性を示唆するものである。
関連論文リスト
- Providing Differential Privacy for Federated Learning Over Wireless: A Cross-layer Framework [19.381425127772054]
Federated Learning(FL)は、エッジデバイスがローカルなトレーニングデータを維持することができる分散機械学習フレームワークである。
本稿では,分散化された動的電力制御により差分プライバシ(DP)を改善するOTA-FLの無線物理層(PHY)設計を提案する。
この適応は、異なる学習アルゴリズム間で設計の柔軟性と有効性を示しながら、プライバシに強く重点を置いています。
論文 参考訳(メタデータ) (2024-12-05T18:27:09Z) - Privacy-Preserving Federated Learning with Differentially Private Hyperdimensional Computing [5.667290129954206]
プライバシー保護型フェデレーションハイパー次元コンピューティング(FedHDPrivacy)を提案する。
FedHDPrivacyは、学習ラウンド全体で累積ノイズを監視し、プライバシー制約を満たすために必要な追加ノイズのみを追加する。
FedHDPrivacyは、製造プロセスの監視のための現実世界のアプリケーションであり、標準的なFLフレームワークを超越しながら高性能を維持している。
論文 参考訳(メタデータ) (2024-11-02T05:00:44Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - APPFL: Open-Source Software Framework for Privacy-Preserving Federated
Learning [0.0]
フェデレートラーニング(FL)は、従来の機械学習のように、データを中央の場所に転送する代わりに、異なる場所でトレーニングモデルを実行し、トレーニングから重みを更新することを可能にする。
本稿では,Argonneのプライバシ保護フェデレート学習フレームワークであるAPPFLを紹介する。
APPFLは、実装されたプライバシ保存アルゴリズムを活用し、新しいアルゴリズムを実装し、さまざまなFLアルゴリズムをプライバシ保存技術でシミュレートし、デプロイすることを可能にする。
論文 参考訳(メタデータ) (2022-02-08T06:23:05Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。