論文の概要: A Consumer-tier based Visual-Brain Machine Interface for Augmented
Reality Glasses Interactions
- arxiv url: http://arxiv.org/abs/2308.15056v1
- Date: Tue, 29 Aug 2023 06:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 15:27:35.185817
- Title: A Consumer-tier based Visual-Brain Machine Interface for Augmented
Reality Glasses Interactions
- Title(参考訳): 拡張現実グラスインタラクションのための消費者層ベース視覚ブレインマシンインタフェース
- Authors: Yuying Jiang, Fan Bai, Zicheng Zhang, Xiaochen Ye, Zheng Liu, Zhiping
Shi, Jianwei Yao, Xiaojun Liu, Fangkun Zhu, Junling Li Qian Guo, Xiaoan Wang,
Junwen Luo
- Abstract要約: 我々は,拡張現実(AR)メガネインタラクションに特化したコンシューマ層型ビジュアルブレイン・マシン・インテフェイス(V-BMI)システムを開発した。
開発システムは、高速なセットアップ、信頼性のある記録、快適なウェアラブル体験を生かしたウェアラブルハードウェアで構成されている。
- 参考スコア(独自算出の注目度): 7.608396231537724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective.Visual-Brain Machine Interface(V-BMI) has provide a novel
interaction technique for Augmented Reality (AR) industries. Several
state-of-arts work has demonstates its high accuracy and real-time interaction
capbilities. However, most of the studies employ EEGs devices that are rigid
and difficult to apply in real-life AR glasseses application sceniraros. Here
we develop a consumer-tier Visual-Brain Machine Inteface(V-BMI) system
specialized for Augmented Reality(AR) glasses interactions. Approach. The
developed system consists of a wearable hardware which takes advantages of fast
set-up, reliable recording and comfortable wearable experience that
specificized for AR glasses applications. Complementing this hardware, we have
devised a software framework that facilitates real-time interactions within the
system while accommodating a modular configuration to enhance scalability. Main
results. The developed hardware is only 110g and 120x85x23 mm, which with 1
Tohm and peak to peak voltage is less than 1.5 uV, and a V-BMI based angry bird
game and an Internet of Thing (IoT) AR applications are deisgned, we
demonstrated such technology merits of intuitive experience and efficiency
interaction. The real-time interaction accuracy is between 85 and 96
percentages in a commercial AR glasses (DTI is 2.24s and ITR 65 bits-min ).
Significance. Our study indicates the developed system can provide an essential
hardware-software framework for consumer based V-BMI AR glasses. Also, we
derive several pivotal design factors for a consumer-grade V-BMI-based AR
system: 1) Dynamic adaptation of stimulation patterns-classification methods
via computer vision algorithms is necessary for AR glasses applications; and 2)
Algorithmic localization to foster system stability and latency reduction.
- Abstract(参考訳): Objective.Visual-Brain Machine Interface (V-BMI)は拡張現実(AR)産業のための新しいインタラクション技術を提供する。
いくつかの最先端の研究は、その高精度でリアルタイムな相互作用能力を実証している。
しかし、ほとんどの研究は、実生活のARメガネ応用において厳格で適用が難しい脳波デバイスを採用している。
本稿では,拡張現実(AR)メガネインタラクションに特化したコンシューマ層型ビジュアルブレイン・マシン・インテフェイス(V-BMI)システムを提案する。
アプローチ。
開発システムは、ARメガネアプリケーション用に特定された、高速なセットアップ、信頼性の高い記録、快適なウェアラブル体験の恩恵を受けるウェアラブルハードウェアで構成されている。
このハードウェアを補完して,モジュール構成をモジュール化してスケーラビリティを向上させるとともに,システム内のリアルタイムインタラクションを容易にするソフトウェアフレームワークを考案した。
主な結果。
開発したハードウェアは110g,120x85x23mmのみであり,ピーク電圧のピーク電圧は1.5uV未満であり,V-BMIベースの怒り鳥ゲームとIoT(Internet of Thing) ARアプリケーションを分解し,直感的な経験と効率の相互作用を実証した。
リアルタイムの相互作用精度は商用ARメガネの85~96パーセンテージ(DTIは2.24秒、ITR65ビット分)である。
重要なこと。
本研究は,コンシューマベースのV-BMIARメガネにハードウェア・ソフトウェア・フレームワークを提供することを示唆する。
また、コンシューマグレードのV-BMIベースのARシステムにおいて、いくつかの重要な設計要素を導出する。
1)ARメガネ応用にはコンピュータビジョンアルゴリズムによる刺激パターン分類法の動的適応が必要であり,
2) システムの安定性と遅延低減を促進するアルゴリズム的ローカライゼーション。
関連論文リスト
- Real-Time Hand Gesture Recognition: Integrating Skeleton-Based Data Fusion and Multi-Stream CNN [0.0]
ハンドジェスチャ認識(HGR)は、様々な現実世界のコンテキストにおいて、直感的な人間とコンピュータのインタラクションを可能にする。
既存のフレームワークは、実用的なHGRアプリケーションに必要なリアルタイム要件を満たすのに苦労することが多い。
本研究では,動的ハンドジェスチャの静的イメージタスクへの認識を簡略化する,動的HGRのための頑健な骨格ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T09:30:59Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Towards High-Frequency Tracking and Fast Edge-Aware Optimization [2.2662585107579165]
この論文は、AR/VRトラッキングシステムのトラッキング周波数を桁違いに増加させることにより、AR/VRトラッキングシステムの最先端技術である。
エッジ認識最適化問題に対する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-02T01:20:34Z) - A Brain-Computer Interface Augmented Reality Framework with
Auto-Adaptive SSVEP Recognition [1.1674893622721483]
本稿では,オブジェクト間の可変性を扱う単純な適応型アンサンブル分類システムを提案する。
また,多様なSSVEPベースのBCI-ARアプリケーションの開発を支援する,シンプルなBCI-ARフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-11T21:56:00Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Distributed On-Sensor Compute System for AR/VR Devices: A
Semi-Analytical Simulation Framework for Power Estimation [2.5696683295721883]
そこで本研究では,分散オンセンサコンピューティングアーキテクチャにより,集中型システムに比べてシステム消費電力を低減できることを示す。
計算集約型機械学習に基づくハンドトラッキングアルゴリズムの場合、分散オンセンサーコンピューティングアーキテクチャはシステムの消費電力を削減できることを示す。
論文 参考訳(メタデータ) (2022-03-14T20:18:24Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - AEGIS: A real-time multimodal augmented reality computer vision based
system to assist facial expression recognition for individuals with autism
spectrum disorder [93.0013343535411]
本稿では,コンピュータビジョンと深部畳み込みニューラルネットワーク(CNN)を組み合わせたマルチモーダル拡張現実(AR)システムの開発について述べる。
提案システムはAIGISと呼ばれ,タブレット,スマートフォン,ビデオ会議システム,スマートグラスなど,さまざまなユーザデバイスにデプロイ可能な支援技術である。
我々は空間情報と時間情報の両方を活用して正確な表現予測を行い、それを対応する可視化に変換し、元のビデオフレーム上に描画する。
論文 参考訳(メタデータ) (2020-10-22T17:20:38Z) - Augment Yourself: Mixed Reality Self-Augmentation Using Optical
See-through Head-mounted Displays and Physical Mirrors [49.49841698372575]
光シークレットヘッドマウントディスプレイ(OST HMD)は、仮想オブジェクトと物理シーンを融合して、没入型複合現実(MR)環境をユーザに提供するための重要な技術のひとつです。
我々は,OST HMDと物理ミラーを組み合わせて自己拡張を実現し,ユーザを中心とした没入型MR環境を提供する,新しいコンセプトとプロトタイプシステムを提案する。
我々のシステムでは、まず第一に、HMDに取り付けられたRGBDカメラを用いて鏡によって生成された仮想画像中のユーザのポーズを推定し、仮想オブジェクトを反射に固定する。
論文 参考訳(メタデータ) (2020-07-06T16:53:47Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z) - A Markerless Deep Learning-based 6 Degrees of Freedom PoseEstimation for
with Mobile Robots using RGB Data [3.4806267677524896]
本稿では,拡張現実デバイス上でリアルタイムな3Dオブジェクトローカライゼーションを実現するために,アートニューラルネットワークの状態をデプロイする手法を提案する。
本研究では,2次元入力のみを用いて物体の3次元ポーズを高速かつ正確に抽出する高速な2次元検出手法に着目する。
2D画像の6Dアノテーションとして,私たちの知る限り,最初のオープンソースツールであるアノテーションツールを開発した。
論文 参考訳(メタデータ) (2020-01-16T09:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。