論文の概要: NeuGaze: Reshaping the future BCI
- arxiv url: http://arxiv.org/abs/2504.15101v1
- Date: Mon, 21 Apr 2025 13:49:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:04:06.499285
- Title: NeuGaze: Reshaping the future BCI
- Title(参考訳): NeuGaze: 将来的なBCIの作り直し
- Authors: Yiqian Yang,
- Abstract要約: 我々は、目視、頭部の動き、表情を利用して、直感的でリアルタイムな制御を可能にする新しいWebカメラベースのシステムであるNeuGazeを紹介する。
運動障害者のネックアップ機能を活用することで、NeuGazeは特別なハードウェアの必要性を排除し、脳-コンピュータインタフェースに代わる低コストでアクセス可能な代替手段を提供する。
- 参考スコア(独自算出の注目度): 0.43512163406552007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional brain-computer interfaces (BCIs), reliant on costly electroencephalography or invasive implants, struggle with complex human-computer interactions due to setup complexity and limited precision. We present NeuGaze, a novel webcam-based system that leverages eye gaze, head movements, and facial expressions to enable intuitive, real-time control using only a standard 30 Hz webcam, often pre-installed in laptops. Requiring minimal calibration, NeuGaze achieves performance comparable to conventional inputs, supporting precise cursor navigation, key triggering via an efficient skill wheel, and dynamic gaming interactions, such as defeating formidable opponents in first-person games. By harnessing preserved neck-up functionalities in motor-impaired individuals, NeuGaze eliminates the need for specialized hardware, offering a low-cost, accessible alternative to BCIs. This paradigm empowers diverse applications, from assistive technology to entertainment, redefining human-computer interaction for motor-impaired users. Project is at \href{https://github.com/NeuSpeech/NeuGaze}{github.com/NeuSpeech/NeuGaze}.
- Abstract(参考訳): 従来の脳-コンピュータインターフェース(BCI)は、コストのかかる脳波検査や侵襲的なインプラントに依存しており、セットアップの複雑さと限られた精度のために複雑な人間-コンピュータの相互作用に苦しむ。
我々は、視線、頭部の動き、表情を活用する新しいWebカメラベースのシステムであるNeuGazeを紹介し、標準の30HzのWebカメラのみを使用して直感的でリアルタイムな制御を可能にし、しばしばラップトップにプリインストールされる。
最小限のキャリブレーションを必要とするため、NeuGazeは従来の入力に匹敵するパフォーマンスを達成し、正確なカーソルナビゲーション、効率的なスキルホイールによるキートリガー、そして一対一のゲームで恐ろしい相手を打ち負かすような動的なゲームインタラクションをサポートする。
NeuGazeは、モーター不自由な個人で保存されたネックアップ機能を利用することで、特別なハードウェアの必要性を排除し、低コストでアクセス可能なBCIの代替品を提供する。
このパラダイムは、アシスト技術からエンターテイメント、モーター不自由なユーザのための人間とコンピュータのインタラクションの再定義まで、さまざまな応用を促進します。
プロジェクトは \href{https://github.com/NeuSpeech/NeuGaze}{github.com/NeuSpeech/NeuGaze} にある。
関連論文リスト
- AI-based Wearable Vision Assistance System for the Visually Impaired: Integrating Real-Time Object Recognition and Contextual Understanding Using Large Vision-Language Models [0.0]
本稿では,音のビープ機構を通じてユーザに対してリアルタイムフィードバックを提供するために,人工知能(AI)技術を用いたウェアラブル視覚支援システムを提案する。
大規模視覚言語モデル(LVLM)を用いたユーザ環境におけるオブジェクトの詳細な記述を提供する。
論文 参考訳(メタデータ) (2024-12-28T07:26:39Z) - GazeGPT: Augmenting Human Capabilities using Gaze-contingent Contextual
AI for Smart Eyewear [30.71112461604336]
本稿では,文脈AIのための新しいユーザインタラクションパラダイムとしてGazeGPTを紹介する。
GazeGPTは、視線追跡を利用して、LMMがユーザーが注意を払っている世界のカメラビューのどのオブジェクトかを理解するのを助ける。
我々は、この視線移入機構が代替手段よりも高速で高精度なポインティング機構であることが示している。
論文 参考訳(メタデータ) (2024-01-30T18:02:44Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - InternGPT: Solving Vision-Centric Tasks by Interacting with ChatGPT
Beyond Language [82.92236977726655]
InternGPTは textbfinteraction, textbfnonverbal, textbfchatbot の略である。
InternGPT(iGPT)という対話型視覚フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T17:58:34Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - MotionInput v2.0 supporting DirectX: A modular library of open-source
gesture-based machine learning and computer vision methods for interacting
and controlling existing software with a webcam [11.120698968989108]
MotionInput v2.0は、既存のアプリケーションやゲームの入力操作に人間の動きのジェスチャーをマッピングする。
3つのユースケース領域は、創造性ソフトウェア、オフィスおよび臨床ソフトウェア、ゲームソフトウェアというモジュールの開発を支援した。
論文 参考訳(メタデータ) (2021-08-10T08:23:21Z) - Improving Compositionality of Neural Networks by Decoding
Representations to Inputs [83.97012077202882]
我々は、ニューラルネットワークのアクティベーションを制約し、入力に"デコード"するように生成モデルを共同で訓練することで、従来のディープラーニングプログラムの利点を橋渡しする。
本稿では,デオード可能な表現の分布外検出,逆例,校正,公平性への応用を実証する。
論文 参考訳(メタデータ) (2021-06-01T20:07:16Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z) - Unmasking Communication Partners: A Low-Cost AI Solution for Digitally
Removing Head-Mounted Displays in VR-Based Telepresence [62.997667081978825]
バーチャルリアリティ(VR)における対面会話は、被験者がヘッドマウントディスプレイ(HMD)を装着する際の課題である
過去の研究では、高コストハードウェアを用いた実験室環境では、VRで個人用アバターを用いた高忠実な顔再構成が可能であることが示されている。
我々は,オープンソース,フリーソフトウェア,安価なハードウェアのみを利用する,このタスクのための最初の低コストシステムを提案する。
論文 参考訳(メタデータ) (2020-11-06T23:17:12Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。