論文の概要: Decoding of Intuitive Visual Motion Imagery Using Convolutional Neural
Network under 3D-BCI Training Environment
- arxiv url: http://arxiv.org/abs/2005.08879v1
- Date: Fri, 15 May 2020 06:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:08:45.814489
- Title: Decoding of Intuitive Visual Motion Imagery Using Convolutional Neural
Network under 3D-BCI Training Environment
- Title(参考訳): 3d-bciトレーニング環境における畳み込みニューラルネットワークを用いた直感的映像のデコード
- Authors: Byoung-Hee Kwon, Ji-Hoon Jeong, Jeong-Hyun Cho, and Seong-Whan Lee
- Abstract要約: 我々は,3次元のBCI学習プラットフォームを開発し,ユーザがより直感的な想像力を発揮するのを支援するためにそれを適用した。
視運動像は前頭前頭葉と後頭葉との間に高い相関があるという統計的証拠を提示した。
- 参考スコア(独自算出の注目度): 17.60434807901964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we adopted visual motion imagery, which is a more intuitive
brain-computer interface (BCI) paradigm, for decoding the intuitive user
intention. We developed a 3-dimensional BCI training platform and applied it to
assist the user in performing more intuitive imagination in the visual motion
imagery experiment. The experimental tasks were selected based on the movements
that we commonly used in daily life, such as picking up a phone, opening a
door, eating food, and pouring water. Nine subjects participated in our
experiment. We presented statistical evidence that visual motion imagery has a
high correlation from the prefrontal and occipital lobes. In addition, we
selected the most appropriate electroencephalography channels using a
functional connectivity approach for visual motion imagery decoding and
proposed a convolutional neural network architecture for classification. As a
result, the averaged classification performance of the proposed architecture
for 4 classes from 16 channels was 67.50 % across all subjects. This result is
encouraging, and it shows the possibility of developing a BCI-based device
control system for practical applications such as neuroprosthesis and a robotic
arm.
- Abstract(参考訳): 本研究では,より直感的なbci(brain-computer interface)パラダイムである視覚運動画像を用いて,直感的なユーザの意図をデコードする。
本研究では,3次元bciトレーニングプラットフォームを開発し,視覚運動画像実験におけるより直感的な想像力向上を支援する。
実験タスクは、携帯電話を拾い、ドアを開け、食べ物を食べ、水を注ぐなど、日常生活でよく使われる動きに基づいて選択されました。
9名の被験者が実験に参加した。
眼球運動像は前頭前葉と後頭葉との相関が高いことが統計的に示唆された。
また,視覚動画像復号のための機能接続アプローチを用いて,最も適切な脳波チャネルを選択し,分類のための畳み込みニューラルネットワークアーキテクチャを提案した。
その結果、16のチャンネルから4つのクラスで提案するアーキテクチャの平均分類性能は67.50%であった。
この結果は,神経補綴やロボットアームなどの実用化のためのBCIベースのデバイス制御システムの開発の可能性を示すものである。
関連論文リスト
- Human-Aligned Image Models Improve Visual Decoding from the Brain [16.184884942703466]
我々は,脳の信号を画像にマッピングするために,人間のアライン画像エンコーダを導入する。
我々の経験的結果は、この単純な修正によって画像検索精度が最大21%向上することを示すこの仮説を支持している。
論文 参考訳(メタデータ) (2025-02-05T11:14:51Z) - SIM: Surface-based fMRI Analysis for Inter-Subject Multimodal Decoding from Movie-Watching Experiments [9.786770726122436]
脳のデコーディングとエンコーディングのための現在のAIフレームワークは、通常、同じデータセット内でモデルをトレーニングし、テストする。
モデル一般化の鍵となる障害は、物体間皮質組織の多様性の度合いである。
本稿では,大脳皮質機能力学の一般化可能なモデルを構築する表面視覚変換器を用いてこの問題に対処する。
論文 参考訳(メタデータ) (2025-01-27T20:05:17Z) - Neuro-3D: Towards 3D Visual Decoding from EEG Signals [49.502364730056044]
脳波信号から3次元視覚知覚を復号する新しい神経科学タスクを導入する。
まず、ビデオと画像の両方でレンダリングされた72の3Dオブジェクトのカテゴリを閲覧する12人の被験者から、マルチモーダル分析データと脳波記録を含むデータセットであるEEG-3Dを提示する。
脳波信号に基づく3次元視覚デコーディングフレームワークNeuro-3Dを提案する。
論文 参考訳(メタデータ) (2024-11-19T05:52:17Z) - Decoding Visual Experience and Mapping Semantics through Whole-Brain Analysis Using fMRI Foundation Models [10.615012396285337]
我々は脳全体の活性化マップを組み込むことで視覚過程の理解を高めるアルゴリズムを開発した。
まず,視覚処理を復号化するための最先端手法と比較し,予測意味精度を43%向上させた。
論文 参考訳(メタデータ) (2024-11-11T16:51:17Z) - Reanimating Images using Neural Representations of Dynamic Stimuli [36.04425924379253]
動画拡散モデルは、静止画像表現とモーション生成を分離するために使用される。
ブレインデコードされたモーション信号は、ビデオの初期フレームのみに基づいて、リアルなビデオ再アニメーションを可能にする。
この枠組みは、動的視覚シーンにおける脳が空間的・時間的情報をどのように表現するかの理解を深める。
論文 参考訳(メタデータ) (2024-06-04T17:59:49Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Learning Compositional Representation for 4D Captures with Neural ODE [72.56606274691033]
本稿では, 形状, 初期状態, 動きを区別する4次元キャプチャの合成表現法を提案する。
運動をモデル化するために、学習した動作コードに基づいて条件付けられた初期状態を更新するために、神経常微分方程式(ode)を訓練する。
デコーダはシェイプコードと更新されたポーズコードを取り、スタンプごとに4Dキャプチャを再構築する。
論文 参考訳(メタデータ) (2021-03-15T10:55:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。