論文の概要: Partial Least Square Regression via Three-factor SVD-type Manifold
Optimization for EEG Decoding
- arxiv url: http://arxiv.org/abs/2208.04324v1
- Date: Tue, 9 Aug 2022 11:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:51:48.059595
- Title: Partial Least Square Regression via Three-factor SVD-type Manifold
Optimization for EEG Decoding
- Title(参考訳): 脳波復号のための3要素SVD型マニフォールド最適化による最小二乗回帰
- Authors: Wanguang Yin, Zhichao Liang, Jianguo Zhang, Quanying Liu
- Abstract要約: 双グラスマン多様体 (PLSRbiGr) の最適化による部分最小二乗回帰(PLSR)の解法を提案する。
qlPLSRbiGrは、運動画像(MI)における脳波信号を復号する様々な実験と、定常視覚誘発電位(SSVEP)タスクで検証される。
- 参考スコア(独自算出の注目度): 4.0204191666595595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Partial least square regression (PLSR) is a widely-used statistical model to
reveal the linear relationships of latent factors that comes from the
independent variables and dependent variables. However, traditional methods
\ql{ to solve PLSR models are usually based on the Euclidean space, and easily
getting} stuck into a local minimum. To this end, we propose a new method to
solve the partial least square regression, named PLSR via optimization on
bi-Grassmann manifold (PLSRbiGr). \ql{Specifically, we first leverage} the
three-factor SVD-type decomposition of the cross-covariance matrix defined on
the bi-Grassmann manifold, converting the orthogonal constrained optimization
problem into an unconstrained optimization problem on bi-Grassmann manifold,
and then incorporate the Riemannian preconditioning of matrix scaling to
regulate the Riemannian metric in each iteration. \ql{PLSRbiGr is validated}
with a variety of experiments for decoding EEG signals at motor imagery (MI)
and steady-state visual evoked potential (SSVEP) task. Experimental results
demonstrate that PLSRbiGr outperforms competing algorithms in multiple EEG
decoding tasks, which will greatly facilitate small sample data learning.
- Abstract(参考訳): 部分最小二乗回帰 (PLSR) は、独立変数と依存変数からの潜在因子の線形関係を明らかにするために広く用いられる統計モデルである。
しかし、plsrモデルを解く伝統的なメソッドである \ql{ は通常ユークリッド空間に基づいており、局所的な最小値に固定される。
そこで本研究では,双グラスマン多様体 (PLSRbiGr) の最適化により最小二乗回帰を解く手法を提案する。
まず、双グラスマン多様体上で定義される交叉共分散行列の3要素SVD型分解を利用し、直交制約付き最適化問題を双グラスマン多様体上の非制約最適化問題に変換し、その後、行列スケーリングのリーマン事前条件を組み込んで各反復においてリーマン計量を規制する。
運動画像(MI)における脳波信号をデコードするための様々な実験と、定常的視覚誘発電位(SSVEP)タスクにより、ql{PLSRbiGrが検証される。
実験の結果、PLSRbiGrは複数のEEGデコーディングタスクにおいて競合するアルゴリズムよりも優れており、小さなサンプルデータ学習を大幅に促進することが示された。
関連論文リスト
- Globally Convergent Accelerated Algorithms for Multilinear Sparse
Logistic Regression with $\ell_0$-constraints [2.323238724742687]
多重線形ロジスティック回帰は多次元データ解析の強力なツールである。
本稿では,$ell_0$-MLSRを解くために,アクセラレーションされた近位置換最小値MLSRモデルを提案する。
また、APALM$+$が一階臨界点に大域収束し、クルディ・ロジャシエヴィチ性質を用いて収束を確立することも示している。
論文 参考訳(メタデータ) (2023-09-17T11:05:08Z) - Neural Symbolic Regression using Control Variables [7.5797917007431]
SRCVは,制御変数を利用して精度とスケーラビリティを両立させるニューラルシンボリック回帰法である。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,SRCVは複数の変数を持つ数学的表現の発見において,最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - An adaptive shortest-solution guided decimation approach to sparse
high-dimensional linear regression [2.3759847811293766]
ASSDは最短解誘導アルゴリズムから適応され、ASSDと呼ばれる。
ASSDは、実世界の応用で遭遇する高度に相関した測定行列を持つ線形回帰問題に特に適している。
論文 参考訳(メタデータ) (2022-11-28T04:29:57Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Numerical Optimizations for Weighted Low-rank Estimation on Language
Model [73.12941276331316]
Singular value decomposition (SVD) は、より小さい行列でターゲット行列を近似する最も一般的な圧縮手法の1つである。
標準SVDは行列内のパラメータを同じ重要性で扱うが、これは単純だが非現実的な仮定である。
本手法は,ニューラルベース言語モデルにおいて,現在のSOTA法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-02T00:58:02Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Surrogate-based variational data assimilation for tidal modelling [0.0]
データ同化(DA)は、物理知識と観測を結合するために広く用いられている。
気候変動の文脈では、古いキャリブレーションは必ずしも新しいシナリオに使用できない。
これにより、DA計算コストの問題が提起される。
複素モデルを代用する2つの方法が提案されている。
論文 参考訳(メタデータ) (2021-06-08T07:39:38Z) - Reinforcement Learning for Adaptive Mesh Refinement [63.7867809197671]
マルコフ決定過程としてのAMRの新規な定式化を提案し,シミュレーションから直接改良政策を訓練するために深部強化学習を適用した。
これらのポリシーアーキテクチャのモデルサイズはメッシュサイズに依存しないため、任意に大きく複雑なシミュレーションにスケールします。
論文 参考訳(メタデータ) (2021-03-01T22:55:48Z) - Reduction of the Number of Variables in Parametric Constrained
Least-Squares Problems [0.20305676256390928]
本稿では,関連する最適化変数数を削減する手法を提案する。
本稿では, 非線形ベンチマークプロセスの数値実験および線形化MPC問題において, 提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-18T18:26:40Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。