論文の概要: End-to-end learnable EEG channel selection with deep neural networks
- arxiv url: http://arxiv.org/abs/2102.09050v2
- Date: Fri, 19 Feb 2021 10:24:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:36:29.416755
- Title: End-to-end learnable EEG channel selection with deep neural networks
- Title(参考訳): ディープニューラルネットワークを用いたエンド・ツー・エンド学習型脳波チャネル選択
- Authors: Thomas Strypsteen and Alexander Bertrand
- Abstract要約: 本稿では,脳波チャネル選択をニューラルネットワーク自体に組み込む枠組みを提案する。
我々は、離散チャネル選択パラメータの連続緩和を用いて、この新しい最適化問題の離散的性質を扱う。
この一般的なアプローチは、2つの異なるEEGタスクで評価される。
- 参考スコア(独自算出の注目度): 72.21556656008156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many electroencephalography (EEG) applications rely on channel selection
methods to remove the least informative channels, e.g., to reduce the amount of
electrodes to be mounted, to decrease the computational load, or to reduce
overfitting effects and improve performance. Wrapper-based channel selection
methods aim to match the channel selection step to the target model, yet they
require to re-train the model multiple times on different candidate channel
subsets, which often leads to an unacceptably high computational cost,
especially when said model is a (deep) neural network. To alleviate this, we
propose a framework to embed the EEG channel selection in the neural network
itself to jointly learn the network weights and optimal channels in an
end-to-end manner by traditional backpropagation algorithms. We deal with the
discrete nature of this new optimization problem by employing continuous
relaxations of the discrete channel selection parameters based on the
Gumbel-softmax trick. We also propose a regularization method that discourages
selecting channels more than once. This generic approach is evaluated on two
different EEG tasks: motor imagery brain-computer interfaces and auditory
attention decoding. The results demonstrate that our framework is generally
applicable, while being competitive with state-of-the art EEG channel selection
methods, tailored to these tasks.
- Abstract(参考訳): 多くの電子脳波学(eeg)の応用では、電極の搭載量を減少させ、計算負荷を減少させ、過フィッティング効果を減少させ、性能を向上させるために、チャネル選択法に依拠している。
ラッパーベースのチャネル選択手法は、チャネル選択ステップをターゲットモデルにマッチさせることを目的としているが、異なる候補チャネルサブセット上で何度もモデルを再トレーニングする必要があるため、特にモデルが(深い)ニューラルネットワークである場合には、許容できないほど高い計算コストを発生させることが多い。
これを軽減するために、従来のバックプロパゲーションアルゴリズムにより、ニューラルネットワーク自体にEEGチャネルの選択を組み込んで、ネットワーク重みと最適なチャネルをエンドツーエンドに学習するフレームワークを提案する。
我々は,gumbel-softmax トリックに基づく離散チャネル選択パラメータの連続緩和を用いて,この新しい最適化問題の離散性を扱う。
また,チャネル選択を1回以上妨げる正規化手法を提案する。
この一般的なアプローチは、運動画像脳-コンピュータインタフェースと聴覚注意復号という2つの脳波タスクに基づいて評価される。
その結果,これらのタスクに合わせた最先端の脳波チャネル選択手法と競合する一方で,我々のフレームワークは一般的に適用可能であることが示された。
関連論文リスト
- Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Optimal channel selection with discrete QCQP [14.734454356396158]
離散QCQPによるチャネル選択を最適に行う新しいチャネル選択法を提案する。
また,実推定時間を正確に推定する2次モデルを提案する。
CIFAR-10 と ImageNet を用いた実験により,提案手法は様々なネットワークアーキテクチャ上で,他の固定インピーダンスチャネルプルーニング法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-24T23:26:51Z) - DGAFF: Deep Genetic Algorithm Fitness Formation for EEG Bio-Signal
Channel Selection [12.497603617622907]
チャネル選択は、データ次元を減らし、無関係なチャネルを排除するために利用されてきた。
本稿では,シーケンシャル検索法と遺伝的アルゴリズムを組み合わせたチャネル選択手法について述べる。
提案手法は,利用したデータセット上での運動画像の分類において,他のチャネル選択法よりも優れている。
論文 参考訳(メタデータ) (2022-02-21T08:06:17Z) - Learning Signal Representations for EEG Cross-Subject Channel Selection
and Trial Classification [0.3553493344868413]
脳波記録の主観非依存チャネル選択のためのアルゴリズムを提案する。
チャネル固有の1D-畳み込みニューラルネットワーク(1D-CNN)を教師付き方法で特徴抽出器として利用し、クラス分離性を最大化する。
トレーニング後、選択されたチャネル固有の1D-CNNのパラメータ化されたサブグループのみを新しい被験者からの新たな信号に転送することで、アルゴリズムを活用できる。
論文 参考訳(メタデータ) (2021-06-20T06:22:16Z) - AutoPruning for Deep Neural Network with Dynamic Channel Masking [28.018077874687343]
深層ニューラルネットワークのための学習に基づくオートプルーニングアルゴリズムを提案する。
まず、各層に対する重みと最良チャネルを目的とする2つの目的の問題を定式化する。
次に、最適なチャネル数と重みを同時に導出するために、別の最適化手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:12:46Z) - Operation-Aware Soft Channel Pruning using Differentiable Masks [51.04085547997066]
本稿では,データ駆動型アルゴリズムを提案する。このアルゴリズムは,操作特性を利用して,ディープニューラルネットワークを異なる方法で圧縮する。
我々は大規模な実験を行い、出力ネットワークの精度で優れた性能を達成する。
論文 参考訳(メタデータ) (2020-07-08T07:44:00Z) - Channel Equilibrium Networks for Learning Deep Representation [63.76618960820138]
この研究は正規化と正則線型関数の組み合わせがチャネルを阻害することを示している。
阻害されたチャネルを単に取り除いた先行技術とは異なり、我々は、新しいニューラルネットワークビルディングブロックを設計することで、トレーニング中に「目を覚ます」ことを提案する。
Channel Equilibrium (CE) ブロックは、同じレイヤのチャネルが学習した表現に等しく寄与することを可能にする。
論文 参考訳(メタデータ) (2020-02-29T09:02:31Z) - Discrimination-aware Network Pruning for Deep Model Compression [79.44318503847136]
既存のプルーニング手法は、スクラッチからスパーシティ制約で訓練するか、事前訓練されたモデルと圧縮されたモデルの特徴マップ間の再構成誤差を最小限に抑えるかのいずれかである。
本稿では,識別能力に実際に寄与するチャネルを選択するために,識別認識チャネルプルーニング (DCP) と呼ばれる簡便な手法を提案する。
画像分類と顔認識の両方の実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-01-04T07:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。