論文の概要: Uncertainty Quantification for Motor Imagery BCI -- Machine Learning vs. Deep Learning
- arxiv url: http://arxiv.org/abs/2507.07511v1
- Date: Thu, 10 Jul 2025 07:57:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.312497
- Title: Uncertainty Quantification for Motor Imagery BCI -- Machine Learning vs. Deep Learning
- Title(参考訳): モータ画像BCIの不確実性定量化 -- 機械学習とディープラーニング
- Authors: Joris Suurmeijer, Ivo Pascal de Jong, Matias Valdenegro-Toro, Andreea Ioana Sburlea,
- Abstract要約: 脳コンピュータインタフェース(BCI)は、脳信号を機能的に有用な出力に変換するが、必ずしも正確ではない。
優れた機械学習分類器は、その分類の確率を与えることで、与えられた分類についてどれだけ自信があるかを示すことができるべきである。
我々は,全てのモデルにおいて,不明瞭なサンプルを拒絶することにより,モータ画像BCIの精度を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 5.62479170374811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brain-computer interfaces (BCIs) turn brain signals into functionally useful output, but they are not always accurate. A good Machine Learning classifier should be able to indicate how confident it is about a given classification, by giving a probability for its classification. Standard classifiers for Motor Imagery BCIs do give such probabilities, but research on uncertainty quantification has been limited to Deep Learning. We compare the uncertainty quantification ability of established BCI classifiers using Common Spatial Patterns (CSP-LDA) and Riemannian Geometry (MDRM) to specialized methods in Deep Learning (Deep Ensembles and Direct Uncertainty Quantification) as well as standard Convolutional Neural Networks (CNNs). We found that the overconfidence typically seen in Deep Learning is not a problem in CSP-LDA and MDRM. We found that MDRM is underconfident, which we solved by adding Temperature Scaling (MDRM-T). CSP-LDA and MDRM-T give the best uncertainty estimates, but Deep Ensembles and standard CNNs give the best classifications. We show that all models are able to separate between easy and difficult estimates, so that we can increase the accuracy of a Motor Imagery BCI by rejecting samples that are ambiguous.
- Abstract(参考訳): 脳コンピュータインタフェース(BCI)は、脳信号を機能的に有用な出力に変換するが、必ずしも正確ではない。
優れた機械学習分類器は、その分類の確率を与えることで、与えられた分類についてどれだけ自信があるかを示すことができるべきである。
モータ画像BCIの標準分類器はそのような確率を与えるが、不確実性定量化の研究はディープラーニングに限られている。
共通空間パターン (CSP-LDA) とリーマン幾何学 (MDRM) を用いた確立されたBCI分類器の不確実性定量化能力と、Deep Learning (Deep Ensembles and Direct Uncertainty Quantification) および標準畳み込みニューラルネットワーク (CNN) の特殊手法との比較を行った。
ディープラーニングで一般的に見られる過信は,CSP-LDAやMDRMでは問題にならないことがわかった。
MDRMは信頼性が低いことが分かり、温度スケーリング(MDRM-T)を追加して解決した。
CSP-LDAとMDRM-Tは最良の不確実性推定を与えるが、Deep Ensemblesと標準CNNは最良の分類を与える。
我々は,全てのモデルにおいて,不明瞭なサンプルを拒絶することにより,モータ画像BCIの精度を向上させることができることを示す。
関連論文リスト
- A Benchmark on Uncertainty Quantification for Deep Learning Prognostics [0.0]
診断学的な深層学習のための不確実性定量化の分野における最新の発展のいくつかを評価する。
これには、ベイズニューラルネットワーク(BNN)の最先端の変分推論アルゴリズムや、モンテカルロ・ドロップアウト(MCD)、ディープアンサンブル(DE)、ヘテロセダスティックニューラルネットワーク(HNN)などの一般的な代替品が含まれる。
この手法の性能は、NASA NCMAPSSの航空機エンジン用データセットのサブセットで評価される。
論文 参考訳(メタデータ) (2023-02-09T16:12:47Z) - Scalable Bayesian Uncertainty Quantification for Neural Network
Potentials: Promise and Pitfalls [0.0]
ニューラルネットワーク(NN)ポテンシャルは、古典的MD力場の計算複雑性の中で非常に正確な分子動力学(MD)シミュレーションを約束する。
トレーニング領域外に適用した場合、NN電位予測は不正確になり、不確実性定量化(UQ)の必要性が高まる。
論文 参考訳(メタデータ) (2022-12-15T16:49:23Z) - Maximum Likelihood Distillation for Robust Modulation Classification [50.51144496609274]
我々は、より堅牢なAMCシステムを構築するために、知識蒸留のアイデアと敵の訓練に基づいて構築する。
オフライン環境でのAMC問題を解消し,より優れたトレーニングラベルを生成するためのMaximum Likelihood関数を提案する。
論文 参考訳(メタデータ) (2022-11-01T21:06:11Z) - DOMINO: Domain-aware Model Calibration in Medical Image Segmentation [51.346121016559024]
現代のディープニューラルネットワークはキャリブレーションが不十分で、信頼性と信頼性を損なう。
本稿では,クラスラベル間のセマンティック・コンフューザビリティと階層的類似性を利用したドメイン認識モデルキャリブレーション手法であるDOMINOを提案する。
その結果,DOMINOを校正したディープニューラルネットワークは,頭部画像分割における非校正モデルや最先端形態計測法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-13T15:31:52Z) - FiLM-Ensemble: Probabilistic Deep Learning via Feature-wise Linear
Modulation [69.34011200590817]
本稿では,特徴量線形変調の概念に基づく暗黙のアンサンブル手法であるFiLM-Ensembleを紹介する。
単一ディープネットワークのネットワークアクティベーションをFiLMで変調することにより、高多様性のモデルアンサンブルを得る。
我々は、FiLM-Ensembleが他の暗黙のアンサンブル法よりも優れており、ネットワークの明示的なアンサンブルの上限に非常に近いことを示す。
論文 参考訳(メタデータ) (2022-05-31T18:33:15Z) - What classifiers know what they don't? [23.166238399010012]
深層画像分類器の予測不確実性評価を行うための,現実的なイメージネット規模のテストベッドであるUIMNETを紹介する。
我々のベンチマークでは,8つの最先端アルゴリズム,6つの不確実性尺度,4つのドメイン内メトリック,3つのドメイン外メトリクス,およびモデルのトレーニング,キャリブレーション,アンサンブル,セレクション,評価のための完全自動化パイプラインを実装している。
論文 参考訳(メタデータ) (2021-07-13T16:17:06Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Why have a Unified Predictive Uncertainty? Disentangling it using Deep
Split Ensembles [39.29536042476913]
ブラックボックスニューラルネットワーク(NN)における不確実性の理解と定量化は、医療などの現実的な環境にデプロイする場合に不可欠である。
予測の不確かさを解消するために,概念的に単純な非ベイズ的アプローチ,ディープ・スプリット・アンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-25T19:15:26Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。