論文の概要: Interpretable Convolutional Neural Networks for Subject-Independent
Motor Imagery Classification
- arxiv url: http://arxiv.org/abs/2112.07208v1
- Date: Tue, 14 Dec 2021 07:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-04 14:20:46.846992
- Title: Interpretable Convolutional Neural Networks for Subject-Independent
Motor Imagery Classification
- Title(参考訳): 主観非依存型モータ画像分類のための解釈可能な畳み込みニューラルネットワーク
- Authors: Ji-Seon Bang, Seong-Whan Lee
- Abstract要約: 本稿では,脳コンピュータインタフェース(BCI)研究のための説明可能なディープラーニングモデルを提案する。
具体的には,運動画像(MI)タスクから得られる脳波信号を分類することを目的とする。
トポグラフィーでLRPの出力を示す熱マップを可視化し, 神経生理学的因子の同定を行った。
- 参考スコア(独自算出の注目度): 22.488536453952964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning frameworks have become increasingly popular in brain computer
interface (BCI) study thanks to their outstanding performance. However, in
terms of the classification model alone, they are treated as black box as they
do not provide any information on what led them to reach a particular decision.
In other words, we cannot convince whether the high performance was aroused by
the neuro-physiological factors or simply noise. Because of this disadvantage,
it is difficult to ensure adequate reliability compared to their high
performance. In this study, we propose an explainable deep learning model for
BCI. Specifically, we aim to classify EEG signal which is obtained from the
motor-imagery (MI) task. In addition, we adopted layer-wise relevance
propagation (LRP) to the model to interpret the reason that the model derived
certain classification output. We visualized the heatmap which indicates the
output of the LRP in form of topography to certify neuro-physiological factors.
Furthermore, we classified EEG with the subject-independent manner to learn
robust and generalized EEG features by avoiding subject dependency. The
methodology also provides the advantage of avoiding the expense of building
training data for each subject. With our proposed model, we obtained
generalized heatmap patterns for all subjects. As a result, we can conclude
that our proposed model provides neuro-physiologically reliable interpretation.
- Abstract(参考訳): ディープラーニングフレームワークは、卓越したパフォーマンスのおかげで、脳コンピュータインタフェース(BCI)研究でますます人気が高まっている。
しかし、分類モデルだけでは、それらが特定の決定に到達した理由に関する情報を提供していないため、ブラックボックスとして扱われる。
言い換えれば、神経生理学的要因によってハイパフォーマンスが引き起こされたのか、あるいは単にノイズだったのかを納得できない。
この不利のため、高い性能に比べて適切な信頼性を確保することは困難である。
本研究では,BCIのための説明可能な深層学習モデルを提案する。
具体的には,運動画像(MI)タスクから得られる脳波信号を分類することを目的とする。
さらに、モデルが特定の分類出力を導出した理由を解釈するために、レイヤワイズ関連伝搬(LRP)をモデルに適用した。
トポグラフィーでLRPの出力を示す熱マップを可視化し, 神経生理学的因子の同定を行った。
さらに,脳波を主観非依存の方法で分類し,主観依存を回避し,強靭で一般化された脳波の特徴を学習した。
この方法論は、各科目のためのトレーニングデータの構築費用を回避する利点も提供する。
提案モデルにより,全被験者に一般化されたヒートマップパターンを得た。
その結果,提案モデルが神経生理学的に信頼性のある解釈を提供することがわかった。
関連論文リスト
- Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Subject-Independent Drowsiness Recognition from Single-Channel EEG with
an Interpretable CNN-LSTM model [0.8250892979520543]
単一チャネル脳波信号からの主観的非依存的眠気認識のための新しい畳み込みニューラルネットワーク(CNN)-Long Short-Term Memory(LSTM)モデルを提案する。
その結果, 公立データセット上での被写体独立性認識において, 11人の被写体の平均精度は72.97%であった。
論文 参考訳(メタデータ) (2021-11-21T10:37:35Z) - Improving a neural network model by explanation-guided training for
glioma classification based on MRI data [0.0]
解釈可能性の手法は、ディープラーニングモデルの意思決定プロセスに関する洞察を得るための一般的な方法となっている。
本稿では,LRP(Layer-wise Relevance propagation)技術を用いた説明誘導学習手法を提案する。
我々は,低次・高次グリオーマ分類問題に対する畳み込みニューラルネットワーク(CNN)モデルについて実験的に検証した。
論文 参考訳(メタデータ) (2021-07-05T13:27:28Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - A Compact and Interpretable Convolutional Neural Network for
Cross-Subject Driver Drowsiness Detection from Single-Channel EEG [4.963467827017178]
本稿では,ドライバの眠気検出のために,複数の被験者間で共有された脳波特徴を検出するための,コンパクトで解釈可能な畳み込みニューラルネットワークを提案する。
その結果,脳波信号の分類では,被験者11名に対して平均73.22%の精度が得られることがわかった。
論文 参考訳(メタデータ) (2021-05-30T14:36:34Z) - Interpretable Factorization for Neural Network ECG Models [10.223907995092835]
我々は、ディープニューラルネットワークをブラックボックス変数からなる階層式に分解する方法を示す。
この選択は、ECGサンプルの視覚的合成スケッチで識別された解釈可能なコンポーネントモデルが得られることを実証する。
論文 参考訳(メタデータ) (2020-06-26T19:32:05Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。