論文の概要: Real or Virtual? Using Brain Activity Patterns to differentiate Attended
Targets during Augmented Reality Scenarios
- arxiv url: http://arxiv.org/abs/2101.05272v1
- Date: Tue, 12 Jan 2021 19:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 06:45:02.410913
- Title: Real or Virtual? Using Brain Activity Patterns to differentiate Attended
Targets during Augmented Reality Scenarios
- Title(参考訳): リアルか仮想か?
拡張現実シナリオにおける脳活動パターンを用いた参加者ターゲットの識別
- Authors: Lisa-Marie Vortmann, Leonid Schwenke, Felix Putze
- Abstract要約: Augmented Realityシナリオで収集した脳波(EEG)データを機械学習技術を用いて分類します。
浅い畳み込みニューラルネットは、20人の参加者から3秒のデータウィンドウを人によって分類した。
- 参考スコア(独自算出の注目度): 10.739605873338592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Augmented Reality is the fusion of virtual components and our real
surroundings. The simultaneous visibility of generated and natural objects
often requires users to direct their selective attention to a specific target
that is either real or virtual. In this study, we investigated whether this
target is real or virtual by using machine learning techniques to classify
electroencephalographic (EEG) data collected in Augmented Reality scenarios. A
shallow convolutional neural net classified 3 second data windows from 20
participants in a person-dependent manner with an average accuracy above 70\%
if the testing data and training data came from different trials.
Person-independent classification was possible above chance level for 6 out of
20 participants. Thus, the reliability of such a Brain-Computer Interface is
high enough for it to be treated as a useful input mechanism for Augmented
Reality applications.
- Abstract(参考訳): 拡張現実(Augmented Reality)は、仮想コンポーネントと実際の環境の融合である。
生成されたオブジェクトと自然オブジェクトの同時可視性は、ユーザがリアルまたは仮想の特定のターゲットに選択的に注意を向ける必要がある場合が多い。
本研究では,拡張現実のシナリオで収集された脳波(eeg)データを分類する機械学習手法を用いて,この目標が現実か仮想かを検討した。
浅い畳み込みニューラルネットワークは、テストデータとトレーニングデータが異なる試行で得られた場合、20人の参加者から平均70%以上の精度で3秒間のデータウィンドウを分類した。
20名中6名に対して, 人別分類が可能であった。
このように、脳-コンピュータインタフェースの信頼性は、拡張現実アプリケーションに有用な入力メカニズムとして扱うのに十分である。
関連論文リスト
- Behavioural gap assessment of human-vehicle interaction in real and virtual reality-based scenarios in autonomous driving [7.588679613436823]
我々は,VR実験に携わる参加者の行動の相違を,等価な実世界の状況と比較して捉える概念である行動ギャップ(obactiveal gap)と呼ぶものを評価するための,最初の,革新的なアプローチを提案する。
実験では、歩行者は異なる運転スタイルと外部ヒューマン・マシン・インタフェース(eHMI)の存在下で道路を横断しようとする。
結果は、参加者がVRに対してより慎重で好奇心を持ち、そのスピードと判断に影響を与え、VRインターフェースが行動に大きく影響していることを示している。
論文 参考訳(メタデータ) (2024-07-04T17:20:17Z) - Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning [0.0]
本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的とした,Thelxino"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
論文 参考訳(メタデータ) (2024-03-27T21:14:17Z) - Systematic Adaptation of Communication-focused Machine Learning Models
from Real to Virtual Environments for Human-Robot Collaboration [1.392250707100996]
本稿では,仮想データセットのサイズを限定した,リアルから仮想への適応のための体系的フレームワークを提案する。
実世界の多くの研究とその後の商業化のトピックである手振り認識は、大きなラベル付きデータセットの作成によって可能になった。
論文 参考訳(メタデータ) (2023-07-21T03:24:55Z) - A Virtual Reality Tool for Representing, Visualizing and Updating Deep
Learning Models [1.9785872350085878]
我々は、異なるカテゴリにデータ入力を割り当てるプロセスを自動化するバーチャルリアリティーツールを実演する。
データセットは仮想空間内の点の雲として表現される。
ユーザは動きを通して雲を探索し、手のジェスチャーを使って雲の一部を分類する。
論文 参考訳(メタデータ) (2023-05-24T17:06:59Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Unique Identification of 50,000+ Virtual Reality Users from Head & Hand
Motion Data [58.27542320038834]
多数のリアルVRユーザーが頭と手の動きだけで複数のセッションで一意かつ確実に識別できることを示す。
個人あたり5分のデータで分類モデルをトレーニングした後、ユーザーは100秒の動作から94.33%の精度で50,000以上のプール全体で一意に識別することができる。
この研究は、バイオメカニクスがVRのユニークな識別子として機能しうる範囲を、顔認証や指紋認識などの広く使われている生体認証と同等に真に示す最初のものである。
論文 参考訳(メタデータ) (2023-02-17T15:05:18Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Attention-based Adversarial Appearance Learning of Augmented Pedestrians [49.25430012369125]
本稿では,歩行者認識タスクのための現実的なデータを合成する手法を提案する。
本手法は, 対向的損失によって駆動される注意機構を用いて, ドメインの相違を学習する。
提案手法はこのような不一致に対して頑健であり,視覚的リアリズムと意味的整合性の両方を明らかにする。
論文 参考訳(メタデータ) (2021-07-06T15:27:00Z) - Facial Expression Recognition Under Partial Occlusion from Virtual
Reality Headsets based on Transfer Learning [0.0]
畳み込みニューラルネットワークに基づくアプローチは、顔認識タスクに適用可能であることが証明されたため、広く採用されている。
しかし、頭部に装着したVRヘッドセットを装着して顔を認識することは、顔の上半分が完全に隠されているため、難しい作業である。
既存のFERデータセットに適用可能なSamsung Gear VRヘッドセットによる閉塞をシミュレートする幾何学的モデルを提案する。
論文 参考訳(メタデータ) (2020-08-12T20:25:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。