論文の概要: Subject-Independent Brain-Computer Interface for Decoding High-Level
Visual Imagery Tasks
- arxiv url: http://arxiv.org/abs/2106.04026v1
- Date: Tue, 8 Jun 2021 00:39:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:09:44.194254
- Title: Subject-Independent Brain-Computer Interface for Decoding High-Level
Visual Imagery Tasks
- Title(参考訳): 高レベル映像タスクのデコードのための主観非依存脳-コンピュータインタフェース
- Authors: Dae-Hyeok Lee, Dong-Kyun Han, Sung-Jin Kim, Ji-Hoon Jeong, and
Seong-Whan Lee
- Abstract要約: 脳波(EEG)信号を用いた人間とドローンの通信は、脳-コンピュータインターフェース(BCI)領域において最も難しい問題の一つである。
実践的BCIシステムでは,脳波信号の変動の低減が不可欠である。
この研究は、VI型BCIにおける被験者間の一般化の可能性を示す最初の試みである。
- 参考スコア(独自算出の注目度): 21.245817408954697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain-computer interface (BCI) is used for communication between humans and
devices by recognizing status and intention of humans. Communication between
humans and a drone using electroencephalogram (EEG) signals is one of the most
challenging issues in the BCI domain. In particular, the control of drone
swarms (the direction and formation) has more advantages compared to the
control of a drone. The visual imagery (VI) paradigm is that subjects visually
imagine specific objects or scenes. Reduction of the variability among EEG
signals of subjects is essential for practical BCI-based systems. In this
study, we proposed the subepoch-wise feature encoder (SEFE) to improve the
performances in the subject-independent tasks by using the VI dataset. This
study is the first attempt to demonstrate the possibility of generalization
among subjects in the VI-based BCI. We used the leave-one-subject-out
cross-validation for evaluating the performances. We obtained higher
performances when including our proposed module than excluding our proposed
module. The DeepConvNet with SEFE showed the highest performance of 0.72 among
six different decoding models. Hence, we demonstrated the feasibility of
decoding the VI dataset in the subject-independent task with robust
performances by using our proposed module.
- Abstract(参考訳): 脳コンピュータインタフェース(BCI)は、人間の状態と意図を認識することで人間とデバイス間のコミュニケーションに使用される。
脳波(EEG)信号を用いた人間とドローンの通信は、BCI領域において最も難しい問題の一つである。
特に、ドローン群(方向と形成)の制御は、ドローンの制御よりも優れている。
視覚イメージ(VI)パラダイムは、被験者が特定の物体やシーンを視覚的に想像することである。
実践的BCIシステムでは,脳波信号の変動の低減が不可欠である。
本研究では,viデータセットを用いて被写体非依存タスクの性能を向上させるために,サブエピックワイズ特徴エンコーダ(sefe)を提案する。
この研究は、VI型BCIにおける被験者間の一般化の可能性を示す最初の試みである。
性能評価にはleft-one-subject-outクロスバリデーションを用いた。
提案モジュールを含む場合,提案モジュールを除く場合よりも高い性能が得られた。
SEFEのDeepConvNetは6種類のデコードモデルの中で0.72の最高性能を示した。
そこで,提案モジュールを用いて,主観非依存タスクにおけるVIデータセットの復号化の実現可能性を示した。
関連論文リスト
- MarvelOVD: Marrying Object Recognition and Vision-Language Models for Robust Open-Vocabulary Object Detection [107.15164718585666]
開語彙検出コンテキスト下でのVLMの偏り予測の根本原因について検討した。
私たちの観察は、非常に優れたトレーニングターゲットを生成する、単純で効果的なパラダイム、コード化されたMarvelOVDにつながります。
我々の手法は、他の最先端技術よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2024-07-31T09:23:57Z) - CycleHOI: Improving Human-Object Interaction Detection with Cycle Consistency of Detection and Generation [37.45945633515955]
本稿では,人間と物体の相互作用(HOI)の検出性能を高めるために,CycleHOIという新しい学習フレームワークを提案する。
我々の鍵となる設計は、HOI検出器のトレーニングのための新しいサイクル整合性損失を導入することである。
我々は,CycleHOIの有効性と一般化力を検証するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-07-16T06:55:43Z) - A Temporal-Spectral Fusion Transformer with Subject-Specific Adapter for Enhancing RSVP-BCI Decoding [15.000487099591776]
RSVP-based Brain-Computer Interface (BCI) は脳波(EEG)信号を用いた標的探索のための効率的な技術である。
従来の復号法は、新しい被験者からのかなりの量のトレーニングデータに依存している。
そこで本研究では,既存の対象データから学習したモデルの知識を高速に伝達し,新たな対象データからデコードする対象特化アダプタを提案する。
論文 参考訳(メタデータ) (2024-01-12T03:18:51Z) - Egocentric RGB+Depth Action Recognition in Industry-Like Settings [50.38638300332429]
本研究は,産業的な環境下での自我中心のRGBとDepthモダリティからの行動の認識に焦点を当てる。
我々のフレームワークは、RGBとDepthの両方のモダリティを効果的に符号化する3DビデオSWIN変換器に基づいている。
また,ICIAP 2023におけるマルチモーダル動作認識チャレンジにおいて,本手法が第1位を確保した。
論文 参考訳(メタデータ) (2023-09-25T08:56:22Z) - A Brain-Computer Interface Augmented Reality Framework with
Auto-Adaptive SSVEP Recognition [1.1674893622721483]
本稿では,オブジェクト間の可変性を扱う単純な適応型アンサンブル分類システムを提案する。
また,多様なSSVEPベースのBCI-ARアプリケーションの開発を支援する,シンプルなBCI-ARフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-11T21:56:00Z) - Accelerating exploration and representation learning with offline
pre-training [52.6912479800592]
1つのオフラインデータセットから2つの異なるモデルを別々に学習することで、探索と表現の学習を改善することができることを示す。
ノイズコントラスト推定と補助報酬モデルを用いて状態表現を学習することで、挑戦的なNetHackベンチマークのサンプル効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-03-31T18:03:30Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Few-Shot Relation Learning with Attention for EEG-based Motor Imagery
Classification [11.873435088539459]
脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)が注目されている。
運動画像(MI)データは、リハビリテーションや自律運転のシナリオに使用することができる。
脳波に基づくBCIシステムにはMI信号の分類が不可欠である。
論文 参考訳(メタデータ) (2020-03-03T02:34:44Z) - Classification of High-Dimensional Motor Imagery Tasks based on An
End-to-end role assigned convolutional neural network [21.984302611206537]
本稿では,各上肢領域の識別的特徴を考慮した終端から終端までの畳み込みニューラルネットワーク(ERA-CNN)を提案する。
ERA-CNNを用いて脳波信号のみを用いてユーザの意図を復号する可能性を実証する。
論文 参考訳(メタデータ) (2020-02-01T14:06:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。