論文の概要: Decoding of Intuitive Visual Motion Imagery Using Convolutional Neural
Network under 3D-BCI Training Environment
- arxiv url: http://arxiv.org/abs/2005.08879v1
- Date: Fri, 15 May 2020 06:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:08:45.814489
- Title: Decoding of Intuitive Visual Motion Imagery Using Convolutional Neural
Network under 3D-BCI Training Environment
- Title(参考訳): 3d-bciトレーニング環境における畳み込みニューラルネットワークを用いた直感的映像のデコード
- Authors: Byoung-Hee Kwon, Ji-Hoon Jeong, Jeong-Hyun Cho, and Seong-Whan Lee
- Abstract要約: 我々は,3次元のBCI学習プラットフォームを開発し,ユーザがより直感的な想像力を発揮するのを支援するためにそれを適用した。
視運動像は前頭前頭葉と後頭葉との間に高い相関があるという統計的証拠を提示した。
- 参考スコア(独自算出の注目度): 17.60434807901964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we adopted visual motion imagery, which is a more intuitive
brain-computer interface (BCI) paradigm, for decoding the intuitive user
intention. We developed a 3-dimensional BCI training platform and applied it to
assist the user in performing more intuitive imagination in the visual motion
imagery experiment. The experimental tasks were selected based on the movements
that we commonly used in daily life, such as picking up a phone, opening a
door, eating food, and pouring water. Nine subjects participated in our
experiment. We presented statistical evidence that visual motion imagery has a
high correlation from the prefrontal and occipital lobes. In addition, we
selected the most appropriate electroencephalography channels using a
functional connectivity approach for visual motion imagery decoding and
proposed a convolutional neural network architecture for classification. As a
result, the averaged classification performance of the proposed architecture
for 4 classes from 16 channels was 67.50 % across all subjects. This result is
encouraging, and it shows the possibility of developing a BCI-based device
control system for practical applications such as neuroprosthesis and a robotic
arm.
- Abstract(参考訳): 本研究では,より直感的なbci(brain-computer interface)パラダイムである視覚運動画像を用いて,直感的なユーザの意図をデコードする。
本研究では,3次元bciトレーニングプラットフォームを開発し,視覚運動画像実験におけるより直感的な想像力向上を支援する。
実験タスクは、携帯電話を拾い、ドアを開け、食べ物を食べ、水を注ぐなど、日常生活でよく使われる動きに基づいて選択されました。
9名の被験者が実験に参加した。
眼球運動像は前頭前葉と後頭葉との相関が高いことが統計的に示唆された。
また,視覚動画像復号のための機能接続アプローチを用いて,最も適切な脳波チャネルを選択し,分類のための畳み込みニューラルネットワークアーキテクチャを提案した。
その結果、16のチャンネルから4つのクラスで提案するアーキテクチャの平均分類性能は67.50%であった。
この結果は,神経補綴やロボットアームなどの実用化のためのBCIベースのデバイス制御システムの開発の可能性を示すものである。
関連論文リスト
- MinD-3D: Reconstruct High-quality 3D objects in Human Brain [53.546633606914455]
Recon3DMindは、fMRI(Functional Magnetic Resonance Imaging)信号から3D視覚を再構築することに焦点を当てた画期的なタスクである。
総合的なfMRI信号キャプチャのための3Dオブジェクトの360度映像を利用したfMRI-Shapeデータセットを提案する。
また,fMRI信号から脳の3次元視覚情報をデコードし,再構成する新しい3段階フレームワークMinD-3Dを提案する。
論文 参考訳(メタデータ) (2023-12-12T18:21:36Z) - Unidirectional brain-computer interface: Artificial neural network
encoding natural images to fMRI response in the visual cortex [12.1427193917406]
本稿では,人間の脳を模倣する人工ニューラルネットワークVISIONを提案する。
VISIONは、人間の血行動態の反応をfMRIボクセル値として、最先端の性能を超える精度で45%の精度で予測することに成功した。
論文 参考訳(メタデータ) (2023-09-26T15:38:26Z) - Decoding visual brain representations from electroencephalography
through Knowledge Distillation and latent diffusion models [0.12289361708127873]
本稿では,脳波(EEG)データを用いて,ImageNetデータセットから画像の分類と再構成を行う革新的な手法を提案する。
我々は6人の被験者の脳波記録を分析し、それぞれ40のユニークな意味カテゴリーにまたがる50の画像に暴露した。
我々は,事前学習した潜伏拡散モデルに基づく画像再構成機構を導入し,脳波を誘発した画像の推定を可能とした。
論文 参考訳(メタデータ) (2023-09-08T09:13:50Z) - Contrast, Attend and Diffuse to Decode High-Resolution Images from Brain
Activities [31.448924808940284]
2相fMRI表現学習フレームワークを提案する。
第1フェーズでは、double-contrastive Mask Auto-encoderを提案してfMRI機能学習者を事前訓練し、識別表現を学習する。
第2フェーズでは、イメージオートエンコーダからのガイダンスで視覚的再構成に最も有用な神経活性化パターンに参加するように、特徴学習者に調整する。
論文 参考訳(メタデータ) (2023-05-26T19:16:23Z) - Brain Captioning: Decoding human brain activity into images and text [1.5486926490986461]
本稿では,脳活動を意味のある画像やキャプションにデコードする革新的な手法を提案する。
提案手法は,最先端画像キャプションモデルを活用し,ユニークな画像再構成パイプラインを組み込んだものである。
生成したキャプションと画像の両方の定量的指標を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2023-05-19T09:57:19Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Learning Compositional Representation for 4D Captures with Neural ODE [72.56606274691033]
本稿では, 形状, 初期状態, 動きを区別する4次元キャプチャの合成表現法を提案する。
運動をモデル化するために、学習した動作コードに基づいて条件付けられた初期状態を更新するために、神経常微分方程式(ode)を訓練する。
デコーダはシェイプコードと更新されたポーズコードを取り、スタンプごとに4Dキャプチャを再構築する。
論文 参考訳(メタデータ) (2021-03-15T10:55:55Z) - Activity Recognition with Moving Cameras and Few Training Examples:
Applications for Detection of Autism-Related Headbanging [1.603589863010401]
行動認識コンピュータビジョンアルゴリズムは、自閉症に関連する行動の存在を検出するために使用できる。
ヘッドバンジ検出に適用した場合のアクティビティ認識における現在の特徴表現技術の利点と限界を文書化します。
時間分散畳み込みニューラルネットワークを用いて,ホームビデオのヘッドバンジを検出するコンピュータビジョン分類器を作成する。
論文 参考訳(メタデータ) (2021-01-10T05:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。