論文の概要: Decoding of Intuitive Visual Motion Imagery Using Convolutional Neural
Network under 3D-BCI Training Environment
- arxiv url: http://arxiv.org/abs/2005.08879v1
- Date: Fri, 15 May 2020 06:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:08:45.814489
- Title: Decoding of Intuitive Visual Motion Imagery Using Convolutional Neural
Network under 3D-BCI Training Environment
- Title(参考訳): 3d-bciトレーニング環境における畳み込みニューラルネットワークを用いた直感的映像のデコード
- Authors: Byoung-Hee Kwon, Ji-Hoon Jeong, Jeong-Hyun Cho, and Seong-Whan Lee
- Abstract要約: 我々は,3次元のBCI学習プラットフォームを開発し,ユーザがより直感的な想像力を発揮するのを支援するためにそれを適用した。
視運動像は前頭前頭葉と後頭葉との間に高い相関があるという統計的証拠を提示した。
- 参考スコア(独自算出の注目度): 17.60434807901964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we adopted visual motion imagery, which is a more intuitive
brain-computer interface (BCI) paradigm, for decoding the intuitive user
intention. We developed a 3-dimensional BCI training platform and applied it to
assist the user in performing more intuitive imagination in the visual motion
imagery experiment. The experimental tasks were selected based on the movements
that we commonly used in daily life, such as picking up a phone, opening a
door, eating food, and pouring water. Nine subjects participated in our
experiment. We presented statistical evidence that visual motion imagery has a
high correlation from the prefrontal and occipital lobes. In addition, we
selected the most appropriate electroencephalography channels using a
functional connectivity approach for visual motion imagery decoding and
proposed a convolutional neural network architecture for classification. As a
result, the averaged classification performance of the proposed architecture
for 4 classes from 16 channels was 67.50 % across all subjects. This result is
encouraging, and it shows the possibility of developing a BCI-based device
control system for practical applications such as neuroprosthesis and a robotic
arm.
- Abstract(参考訳): 本研究では,より直感的なbci(brain-computer interface)パラダイムである視覚運動画像を用いて,直感的なユーザの意図をデコードする。
本研究では,3次元bciトレーニングプラットフォームを開発し,視覚運動画像実験におけるより直感的な想像力向上を支援する。
実験タスクは、携帯電話を拾い、ドアを開け、食べ物を食べ、水を注ぐなど、日常生活でよく使われる動きに基づいて選択されました。
9名の被験者が実験に参加した。
眼球運動像は前頭前葉と後頭葉との相関が高いことが統計的に示唆された。
また,視覚動画像復号のための機能接続アプローチを用いて,最も適切な脳波チャネルを選択し,分類のための畳み込みニューラルネットワークアーキテクチャを提案した。
その結果、16のチャンネルから4つのクラスで提案するアーキテクチャの平均分類性能は67.50%であった。
この結果は,神経補綴やロボットアームなどの実用化のためのBCIベースのデバイス制御システムの開発の可能性を示すものである。
関連論文リスト
- Neuro-3D: Towards 3D Visual Decoding from EEG Signals [49.502364730056044]
脳波信号から3次元視覚知覚を復号する新しい神経科学タスクを導入する。
まず、ビデオと画像の両方でレンダリングされた72の3Dオブジェクトのカテゴリを閲覧する12人の被験者から、マルチモーダル分析データと脳波記録を含むデータセットであるEEG-3Dを提示する。
脳波信号に基づく3次元視覚デコーディングフレームワークNeuro-3Dを提案する。
論文 参考訳(メタデータ) (2024-11-19T05:52:17Z) - Decoding Visual Experience and Mapping Semantics through Whole-Brain Analysis Using fMRI Foundation Models [10.615012396285337]
我々は脳全体の活性化マップを組み込むことで視覚過程の理解を高めるアルゴリズムを開発した。
まず,視覚処理を復号化するための最先端手法と比較し,予測意味精度を43%向上させた。
論文 参考訳(メタデータ) (2024-11-11T16:51:17Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Unidirectional brain-computer interface: Artificial neural network
encoding natural images to fMRI response in the visual cortex [12.1427193917406]
本稿では,人間の脳を模倣する人工ニューラルネットワークVISIONを提案する。
VISIONは、人間の血行動態の反応をfMRIボクセル値として、最先端の性能を超える精度で45%の精度で予測することに成功した。
論文 参考訳(メタデータ) (2023-09-26T15:38:26Z) - Decoding visual brain representations from electroencephalography
through Knowledge Distillation and latent diffusion models [0.12289361708127873]
本稿では,脳波(EEG)データを用いて,ImageNetデータセットから画像の分類と再構成を行う革新的な手法を提案する。
我々は6人の被験者の脳波記録を分析し、それぞれ40のユニークな意味カテゴリーにまたがる50の画像に暴露した。
我々は,事前学習した潜伏拡散モデルに基づく画像再構成機構を導入し,脳波を誘発した画像の推定を可能とした。
論文 参考訳(メタデータ) (2023-09-08T09:13:50Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Learning Compositional Representation for 4D Captures with Neural ODE [72.56606274691033]
本稿では, 形状, 初期状態, 動きを区別する4次元キャプチャの合成表現法を提案する。
運動をモデル化するために、学習した動作コードに基づいて条件付けられた初期状態を更新するために、神経常微分方程式(ode)を訓練する。
デコーダはシェイプコードと更新されたポーズコードを取り、スタンプごとに4Dキャプチャを再構築する。
論文 参考訳(メタデータ) (2021-03-15T10:55:55Z) - Activity Recognition with Moving Cameras and Few Training Examples:
Applications for Detection of Autism-Related Headbanging [1.603589863010401]
行動認識コンピュータビジョンアルゴリズムは、自閉症に関連する行動の存在を検出するために使用できる。
ヘッドバンジ検出に適用した場合のアクティビティ認識における現在の特徴表現技術の利点と限界を文書化します。
時間分散畳み込みニューラルネットワークを用いて,ホームビデオのヘッドバンジを検出するコンピュータビジョン分類器を作成する。
論文 参考訳(メタデータ) (2021-01-10T05:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。