論文の概要: Geometry-Aware Deep Congruence Networks for Manifold Learning in Cross-Subject Motor Imagery
- arxiv url: http://arxiv.org/abs/2511.18940v1
- Date: Mon, 24 Nov 2025 09:46:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.145516
- Title: Geometry-Aware Deep Congruence Networks for Manifold Learning in Cross-Subject Motor Imagery
- Title(参考訳): クロスオブジェクトモータ画像におけるマニフォールド学習のための幾何学的深部集合ネットワーク
- Authors: Sanjeev Manivannan, Chandrashekar Lakshminarayan,
- Abstract要約: 脳波ベースの脳-コンピュータインタフェースでは、クロスオブジェクト・モーター・イメージ・デコーディングが依然として大きな課題である。
本稿では,新しいジオメトリ対応プリプロセッシングモジュールとディープコングルーエンスネットワークを紹介する。
我々のフレームワークは、最強の古典的ベースラインに対して、クロスオブジェクトの精度を3~4%向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cross-subject motor-imagery decoding remains a major challenge in EEG-based brain-computer interfaces due to strong subject variability and the curved geometry of covariance matrices on the symmetric positive definite (SPD) manifold. We address the zero-shot cross-subject setting, where no target-subject labels or adaptation are allowed, by introducing novel geometry-aware preprocessing modules and deep congruence networks that operate directly on SPD covariance matrices. Our preprocessing modules, DCR and RiFU, extend Riemannian Alignment by improving action separation while reducing subject-specific distortions. We further propose two manifold classifiers, SPD-DCNet and RiFUNet, which use hierarchical congruence transforms to learn discriminative, subject-invariant covariance representations. On the BCI-IV 2a benchmark, our framework improves cross-subject accuracy by 3-4% over the strongest classical baselines, demonstrating the value of geometry-aware transformations for robust EEG decoding.
- Abstract(参考訳): 対称正定値(SPD)多様体上での共分散行列の曲線幾何学は、強い対象変数と曲線幾何学により、脳波ベースの脳-コンピュータインタフェースにおいて依然として大きな課題である。
SPD共分散行列上で直接動作する新しい幾何対応前処理モジュールと深部共役ネットワークを導入することにより、ターゲットオブジェクトラベルや適応を許可しないゼロショットクロスオブジェクト設定に対処する。
我々の前処理モジュールであるDCRとRiFUは、主観的歪みを低減しつつ、作用分離を改善してリーマンアライメントを拡張する。
さらに, 2つの多様体分類器, SPD-DCNet と RiFUNet を提案する。
BCI-IV 2aベンチマークでは,強靭なEEGデコーディングのための幾何認識変換の価値を実証し,最強の古典的ベースラインに対して,クロスオブジェクトの精度を3~4%向上させる。
関連論文リスト
- Dense Semantic Matching with VGGT Prior [49.42199006453071]
本稿では,VGGTの本質的な強みを,初期の特徴段階を再利用し,後続の特徴段階を微調整し,双方向対応のための意味的頭部を追加することによって維持するアプローチを提案する。
提案手法は, 従来のベースラインよりも優れた幾何認識, 整合性, および多様体保存を実現する。
論文 参考訳(メタデータ) (2025-09-25T14:56:11Z) - PAID: Pairwise Angular-Invariant Decomposition for Continual Test-Time Adaptation [70.98107766265636]
本稿では,事前学習した重みの幾何学的特性を出発点として,3つの重要な成分(等級,絶対角,対角構造)を体系的に解析する。
両角構造は多種多様なドメインにわたって安定であり, ドメイン不変な意味情報を符号化し, 適応中に保存すべきことを示唆する。
論文 参考訳(メタデータ) (2025-06-03T05:18:15Z) - A Recipe for Geometry-Aware 3D Mesh Transformers [2.0992612407358293]
本研究では, ノード数可変のパッチを収容するパッチレベルで, 特徴を埋め込む手法について検討する。
本研究は,1)一般的な3次元メッシュトランスフォーマにおける熱拡散による構造的および位置的埋め込みの重要性,2)学習の強化における測地的マスキングや機能的相互作用といった新しい要素の有効性,3)セグメント化と分類作業の課題における提案手法の優れた性能と効率性など,重要な知見を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-10-31T19:13:31Z) - EqNIO: Subequivariant Neural Inertial Odometry [33.96552018734359]
重力ベクトルの周りで回転すると、IMUデータは等変的に変形し、重力に平行な任意の平面に対して反射することを示す。
そして、IMUデータをこのフレームにマッピングし、既製の慣性オドメトリーネットワークで直接使用できる不変な正準化を実現する。
論文 参考訳(メタデータ) (2024-08-12T17:42:46Z) - Riemannian Self-Attention Mechanism for SPD Networks [34.794770395408335]
本稿では,SPD多様体自己アテンション機構(SMSA)を提案する。
構造化表現の識別を改善するためにSMSAベースの幾何学習モジュール(SMSA-GL)を設計する。
論文 参考訳(メタデータ) (2023-11-28T12:34:46Z) - GTA: A Geometry-Aware Attention Mechanism for Multi-View Transformers [63.41460219156508]
既存の位置符号化方式は3次元視覚タスクに最適であると主張する。
トークンの幾何学的構造を相対変換として符号化する幾何学的注意機構を提案する。
我々は、Geometric Transform Attention (GTA) と呼ばれる、最先端のトランスフォーマーベースNVSモデルの学習効率と性能を向上させることに留意している。
論文 参考訳(メタデータ) (2023-10-16T13:16:09Z) - Deep Optimal Transport for Domain Adaptation on SPD Manifolds [9.552869120136005]
最適輸送理論とSPD多様体の幾何学を組み合わせた新しい幾何学的深層学習フレームワークを提案する。
提案手法は, 多様体構造を尊重しながらデータ分布を整列させ, 限界差と条件差を効果的に低減する。
提案手法は,KU,BNCI2014001,BNCI2015001の3つのクロスセッション脳コンピュータインタフェースデータセットに対して検証を行った。
論文 参考訳(メタデータ) (2022-01-15T03:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。