論文の概要: Federated Motor Imagery Classification for Privacy-Preserving Brain-Computer Interfaces
- arxiv url: http://arxiv.org/abs/2412.01079v1
- Date: Mon, 02 Dec 2024 03:35:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:41:38.071447
- Title: Federated Motor Imagery Classification for Privacy-Preserving Brain-Computer Interfaces
- Title(参考訳): プライバシ保護型脳-コンピュータインタフェースのためのフェデレーションモータ画像分類
- Authors: Tianwang Jia, Lubin Meng, Siyang Li, Jiajing Liu, Dongrui Wu,
- Abstract要約: 本稿では,バッチ固有のバッチ正規化とシャープネス認識の最小化によるフェデレーション分類を提案する。
FedBSはユーザのEEGデータのプライバシを保護し、複数のBCIユーザが大規模な機械学習モデルトレーニングに参加することを可能にする。
- 参考スコア(独自算出の注目度): 14.251784648413276
- License:
- Abstract: Training an accurate classifier for EEG-based brain-computer interface (BCI) requires EEG data from a large number of users, whereas protecting their data privacy is a critical consideration. Federated learning (FL) is a promising solution to this challenge. This paper proposes Federated classification with local Batch-specific batch normalization and Sharpness-aware minimization (FedBS) for privacy protection in EEG-based motor imagery (MI) classification. FedBS utilizes local batch-specific batch normalization to reduce data discrepancies among different clients, and sharpness-aware minimization optimizer in local training to improve model generalization. Experiments on three public MI datasets using three popular deep learning models demonstrated that FedBS outperformed six state-of-the-art FL approaches. Remarkably, it also outperformed centralized training, which does not consider privacy protection at all. In summary, FedBS protects user EEG data privacy, enabling multiple BCI users to participate in large-scale machine learning model training, which in turn improves the BCI decoding accuracy.
- Abstract(参考訳): 脳波ベースの脳コンピュータインタフェース(BCI)の正確な分類器のトレーニングには、多数のユーザの脳波データが必要であるが、データのプライバシ保護は重要な考慮事項である。
フェデレートラーニング(FL)はこの課題に対する有望な解決策である。
本稿では、脳波に基づく運動画像(MI)分類におけるプライバシー保護のための、局所バッチ別バッチ正規化とシャープネス対応最小化(FedBS)を用いたフェデレーション分類を提案する。
FedBSは、ローカルバッチ固有のバッチ正規化を使用して、異なるクライアント間でのデータ格差を低減するとともに、局所トレーニングにおけるシャープネスを意識した最小化オプティマイザを使用して、モデル一般化を改善する。
3つの人気のあるディープラーニングモデルを用いた3つのパブリックMIデータセットの実験は、FedBSが6つの最先端FLアプローチより優れていることを示した。
注目すべきは、プライバシー保護をまったく考慮しない集中的なトレーニングも上回っていることだ。
要約すると、FedBSはユーザのEEGデータのプライバシを保護し、複数のBCIユーザが大規模な機械学習モデルトレーニングに参加できるようにし、それによってBCI復号精度が向上する。
関連論文リスト
- Privacy-Preserving Federated Learning with Consistency via Knowledge Distillation Using Conditional Generator [19.00239208095762]
モデルパラメータや更新のみを共有し、プライベートデータをローカルに保持する分散学習フレームワークとして、フェデレートラーニング(FL)が人気を集めています。
高い競争性能と高レベルのプライバシ保護を備えた新しいFL法であるFedMD-CGを提案する。
我々は、FedMD-CGの優位性を検証するために、様々な画像分類タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-09-11T02:36:36Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - FedML-HE: An Efficient Homomorphic-Encryption-Based Privacy-Preserving Federated Learning System [24.39699808493429]
Federated Learningは、ローカルデータではなく、ローカルモデルのアップデートを集約することによって、分散デバイス上の機械学習モデルをトレーニングする。
サーバ上の集約されたローカルモデルは、逆攻撃によって機密性の高い個人情報を明らかにする可能性があるため、プライバシー上の懸念が生じる。
我々は,HedML-HEをベースとした安全なモデルアグリゲーションを実現するための,最初の実践的フェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-03-20T02:44:35Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - FedPDC:Federated Learning for Public Dataset Correction [1.5533842336139065]
フェデレート学習は、非IIDシナリオにおける従来の機械学習よりも分類精度が低い。
局所モデルのアグリゲーションモードと局所学習の損失関数を最適化するために,新しいアルゴリズムであるFedPDCを提案する。
多くのベンチマーク実験において、FedPDCは極めて不均衡なデータ分布の場合、グローバルモデルの精度を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-02-24T08:09:23Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - When Crowdsensing Meets Federated Learning: Privacy-Preserving Mobile
Crowdsensing System [12.087658145293522]
モバイルクラウドセンシング(MCS)は、スケーラビリティ、デプロイメントコストの低減、分散特性を備えた、新たなセンシングデータ収集パターンである。
従来のMCSシステムはプライバシーの懸念と公正な報酬分配に苦しんでいます。
本論文では、textscCrowdFLと呼ばれるプライバシー保護MCSシステムを提案する。
論文 参考訳(メタデータ) (2021-02-20T15:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。