論文の概要: Aggregating Intrinsic Information to Enhance BCI Performance through
Federated Learning
- arxiv url: http://arxiv.org/abs/2308.11636v1
- Date: Mon, 14 Aug 2023 08:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-27 04:46:59.353655
- Title: Aggregating Intrinsic Information to Enhance BCI Performance through
Federated Learning
- Title(参考訳): フェデレーション学習によるBCI性能向上のための固有情報の集約
- Authors: Rui Liu, Yuanyuan Chen, Anran Li, Yi Ding, Han Yu, Cuntai Guan
- Abstract要約: 不十分なデータは、高性能なディープラーニングモデルを構築するためのBCI(Brain-Computer Interface)にとって長年の課題である。
本稿では,この課題を克服するために,階層的に個別化したフェデレート学習脳波デコーディングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.65566062475597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Insufficient data is a long-standing challenge for Brain-Computer Interface
(BCI) to build a high-performance deep learning model. Though numerous research
groups and institutes collect a multitude of EEG datasets for the same BCI
task, sharing EEG data from multiple sites is still challenging due to the
heterogeneity of devices. The significance of this challenge cannot be
overstated, given the critical role of data diversity in fostering model
robustness. However, existing works rarely discuss this issue, predominantly
centering their attention on model training within a single dataset, often in
the context of inter-subject or inter-session settings. In this work, we
propose a hierarchical personalized Federated Learning EEG decoding (FLEEG)
framework to surmount this challenge. This innovative framework heralds a new
learning paradigm for BCI, enabling datasets with disparate data formats to
collaborate in the model training process. Each client is assigned a specific
dataset and trains a hierarchical personalized model to manage diverse data
formats and facilitate information exchange. Meanwhile, the server coordinates
the training procedure to harness knowledge gleaned from all datasets, thus
elevating overall performance. The framework has been evaluated in Motor
Imagery (MI) classification with nine EEG datasets collected by different
devices but implementing the same MI task. Results demonstrate that the
proposed frame can boost classification performance up to 16.7% by enabling
knowledge sharing between multiple datasets, especially for smaller datasets.
Visualization results also indicate that the proposed framework can empower the
local models to put a stable focus on task-related areas, yielding better
performance. To the best of our knowledge, this is the first end-to-end
solution to address this important challenge.
- Abstract(参考訳): 不十分なデータは、高性能なディープラーニングモデルを構築するためのBCI(Brain-Computer Interface)にとって長年の課題である。
多くの研究グループや機関が同じBCIタスクのために多数のEEGデータセットを収集しているが、デバイスの不均一性のため、複数のサイトのEEGデータを共有することは依然として困難である。
モデルのロバスト性育成におけるデータ多様性の重要な役割を考えると、この課題の重要性を誇張することはできない。
しかし、既存の作品はこの問題をほとんど議論せず、主に単一のデータセット内のモデルトレーニング、しばしばサブジェクト間またはセッション間設定のコンテキストに焦点をあてている。
本研究では,FLEEG(Federated Learning EEG decoding)フレームワークを階層的にパーソナライズし,この課題を克服する。
この革新的なフレームワークは、bciの新しい学習パラダイムを具現化し、異なるデータフォーマットを持つデータセットがモデルトレーニングプロセスで協調できるようにする。
各クライアントには特定のデータセットが割り当てられ、階層的なパーソナライズされたモデルを使用して、さまざまなデータフォーマットを管理し、情報交換を容易にする。
一方、サーバはトレーニング手順を調整し、すべてのデータセットから取得した知識を活用する。
このフレームワークは、異なるデバイスで収集された9つのEEGデータセットを使用して、Motor Imagery (MI)分類で評価されている。
提案したフレームは,複数のデータセット間の知識共有を可能にすることにより,分類性能を最大16.7%向上させることができる。
可視化の結果,提案フレームワークは,タスク関連領域に安定した焦点をあてることにより,パフォーマンスの向上を図っている。
私たちの知る限りでは、これはこの重要な課題に対処する最初のエンドツーエンドソリューションです。
関連論文リスト
- A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - FissionVAE: Federated Non-IID Image Generation with Latent Space and Decoder Decomposition [9.059664504170287]
フェデレートされた学習により、分散化されたクライアントは、すべてのトレーニングデータをローカルに保ちながら、共有モデルを共同で学習することができる。
本稿では、潜在空間を分解し、個々のクライアントグループに適したデコーダブランチを構成する新しいアプローチFissionVAEを紹介する。
アプローチを評価するために,MNISTとFashionMNISTを組み合わせた2つの複合データセットを作成した。
論文 参考訳(メタデータ) (2024-08-30T08:22:30Z) - Self-Regulated Data-Free Knowledge Amalgamation for Text Classification [9.169836450935724]
そこで我々は,複数の教師モデルから学習できる軽量な学生ネットワークを構築した。
そこで本研究では,各教師に適したテキストデータを生成するモデリングフレームワークSTRATANETを提案する。
本手法は,ラベルやドメインの異なる3つのベンチマークテキスト分類データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-16T21:13:30Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Towards Personalized Federated Learning via Heterogeneous Model
Reassembly [84.44268421053043]
pFedHRは、異種モデルの再組み立てを利用して、パーソナライズされたフェデレーション学習を実現するフレームワークである。
pFedHRは、動的に多様なパーソナライズされたモデルを自動生成する。
論文 参考訳(メタデータ) (2023-08-16T19:36:01Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Evaluating and Incentivizing Diverse Data Contributions in Collaborative
Learning [89.21177894013225]
フェデレートされた学習モデルがうまく機能するためには、多様で代表的なデータセットを持つことが不可欠である。
データの多様性を定量化するために用いられる統計的基準と、使用するフェデレート学習アルゴリズムの選択が、結果の平衡に有意な影響を及ぼすことを示す。
我々はこれを活用して、データ収集者がグローバルな人口を代表するデータに貢献することを奨励する、シンプルな最適なフェデレーション学習機構を設計する。
論文 参考訳(メタデータ) (2023-06-08T23:38:25Z) - Motor Imagery Decoding Using Ensemble Curriculum Learning and
Collaborative Training [11.157243900163376]
マルチオブジェクトEEGデータセットは、いくつかの種類のドメインシフトを示す。
これらの領域シフトは、堅牢なクロスオブジェクトの一般化を妨げる。
複数の特徴抽出器を組み込んだ2段階モデルアンサンブルアーキテクチャを提案する。
我々のモデルアンサンブルアプローチはカリキュラム学習と協調学習の力を組み合わせたものであることを実証する。
論文 参考訳(メタデータ) (2022-11-21T13:45:44Z) - A Multi-Format Transfer Learning Model for Event Argument Extraction via
Variational Information Bottleneck [68.61583160269664]
イベント引数抽出(EAE)は、テキストから所定の役割を持つ引数を抽出することを目的としている。
変動情報のボトルネックを考慮したマルチフォーマット変換学習モデルを提案する。
3つのベンチマークデータセットに対して広範な実験を行い、EAE上での新たな最先端性能を得る。
論文 参考訳(メタデータ) (2022-08-27T13:52:01Z) - Aggregation Delayed Federated Learning [20.973999078271483]
フェデレーション学習(Federated Learning)は、複数のデータ所有者(クライアント)が、自身のデバイスにデータを保持しながら、ひとつのマシンラーニングモデルを協調的にトレーニングする分散機械学習パラダイムである。
非IIDデータ上では、FedAvgのような標準フェデレーションアルゴリズムによる性能低下が報告されている。
非IIDデータを扱うための多くの既存の作業は、FedAvgと同じ集約フレームワークを採用し、サーバ側またはクライアントでモデル更新を改善することに重点を置いている。
本研究では, 集約を遅らせる再分配ラウンドを導入することで, この課題に取り組み, 複数タスクの実験を行い, 提案したフレームワークが非IIDの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-08-17T04:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。