論文の概要: EEGEyeNet: a Simultaneous Electroencephalography and Eye-tracking
Dataset and Benchmark for Eye Movement Prediction
- arxiv url: http://arxiv.org/abs/2111.05100v2
- Date: Wed, 10 Nov 2021 08:22:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-11-11 14:02:23.335489
- Title: EEGEyeNet: a Simultaneous Electroencephalography and Eye-tracking
Dataset and Benchmark for Eye Movement Prediction
- Title(参考訳): EEGEyeNet:眼球運動予測のための同時脳波と眼球追跡データセットとベンチマーク
- Authors: Ard Kastrati, Martyna Beata P{\l}omecka, Dami\'an Pascual, Lukas Wolf,
Victor Gillioz, Roger Wattenhofer, Nicolas Langer
- Abstract要約: 脳活動と眼球運動の交差に関する研究を進めることを目的とした新しいデータセットを提案する。
EEGEyeNetは、356人の被験者から同時脳波(EEG)と眼球追跡(ET)を同時に記録する。
また,脳波計測から視線予測を評価するためのベンチマークも提案する。
- 参考スコア(独自算出の注目度): 5.10183147987411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new dataset and benchmark with the goal of advancing research in
the intersection of brain activities and eye movements. Our dataset, EEGEyeNet,
consists of simultaneous Electroencephalography (EEG) and Eye-tracking (ET)
recordings from 356 different subjects collected from three different
experimental paradigms. Using this dataset, we also propose a benchmark to
evaluate gaze prediction from EEG measurements. The benchmark consists of three
tasks with an increasing level of difficulty: left-right, angle-amplitude and
absolute position. We run extensive experiments on this benchmark in order to
provide solid baselines, both based on classical machine learning models and on
large neural networks. We release our complete code and data and provide a
simple and easy-to-use interface to evaluate new methods.
- Abstract(参考訳): 我々は,脳活動と眼球運動の交差に関する研究を進めるために,新しいデータセットとベンチマークを提示する。
脳波同時計測(EEG)と眼球追跡(ET)を3つの異なる実験パラダイムから収集した356名の被験者から作成した。
このデータセットを用いて脳波から視線予測を評価するベンチマークも提案する。
このベンチマークは、左、角度振幅、絶対位置という3つの課題から成り立っている。
このベンチマークでは、古典的機械学習モデルと大規模ニューラルネットワークの両方に基づいて、堅固なベースラインを提供するために、広範な実験を実施しています。
完全なコードとデータをリリースし、新しいメソッドを評価するためのシンプルで使いやすいインターフェースを提供します。
関連論文リスト
- HOIGaze: Gaze Estimation During Hand-Object Interactions in Extended Reality Exploiting Eye-Hand-Head Coordination [10.982807572404166]
HOIGAzeは、拡張現実(XR)における手物体相互作用(HOI)中の視線推定のための学習的アプローチ
眼、手、頭部の動きは、HOIにおいて密接に調整されており、この調整は、視線訓練に最も有用なサンプルを特定するために利用することができる。
HOT3DとAriaデジタルツイン(ADT)のデータセット上でHOIGazeを評価し,最先端の手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-04-28T14:31:43Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - EEG-EyeTrack: A Benchmark for Time Series and Functional Data Analysis with Open Challenges and Baselines [0.0]
まず、FDAアプリケーションに適したオープンな課題と評価指標が提案されている。
機能的ニューラルネットワークは、一次回帰タスクのベースライン結果を確立するために使用される。
コンシューマグレードのハードウェアに基づく新しいデータセットと、リサーチグレードのハードウェアに基づくEEGEyeNetデータセットのベースライン結果が報告されている。
論文 参考訳(メタデータ) (2025-04-02T08:33:38Z) - Consumer-grade EEG-based Eye Tracking [0.0]
脳波による眼球運動追跡(EEG-ET)は、脳波信号の眼球運動アーチファクトをカメラによる追跡の代替として活用する。
EEG-ETは低照度環境での堅牢性や脳-コンピュータインタフェースとの統合性などの利点を提供する。
脳波と視線追跡記録を同時生成したデータセットを116セッションで113名に分けて提示した。
論文 参考訳(メタデータ) (2025-03-18T14:53:20Z) - Heuristical Comparison of Vision Transformers Against Convolutional Neural Networks for Semantic Segmentation on Remote Sensing Imagery [0.0]
Vision Transformers (ViT) はコンピュータビジョンの分野で新たな研究の波をもたらした。
本稿では,航空画像のセマンティックセグメンテーションにViTを使用する(あるいは使用しない)3つの重要な要素の比較に焦点をあてる。
本稿では,新たな重み付き損失関数がCNNモデルの性能をViTを用いたトランスファー学習と比較して著しく向上させることを示す。
論文 参考訳(メタデータ) (2024-11-14T00:18:04Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - EEG-BBNet: a Hybrid Framework for Brain Biometric using Graph
Connectivity [1.1498015270151059]
我々は、畳み込みニューラルネットワーク(CNN)とグラフ畳み込みニューラルネットワーク(GCNN)を統合するハイブリッドネットワークであるEEG-BBNetを提案する。
我々のモデルは、イベント関連電位(ERP)タスクにおけるすべてのベースラインを、セッション内データを用いて平均99.26%の正確な認識率で上回ります。
論文 参考訳(メタデータ) (2022-08-17T10:18:22Z) - Fusing Local Similarities for Retrieval-based 3D Orientation Estimation
of Unseen Objects [70.49392581592089]
我々は,モノクロ画像から未確認物体の3次元配向を推定する作業に取り組む。
我々は検索ベースの戦略に従い、ネットワークがオブジェクト固有の特徴を学習するのを防ぐ。
また,LineMOD,LineMOD-Occluded,T-LESSのデータセットを用いた実験により,本手法が従来の手法よりもはるかに優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2022-03-16T08:53:00Z) - Facial Age Estimation using Convolutional Neural Networks [0.0]
本論文は,ノルウェー科学技術大学における機械学習の学生プロジェクトの一部である。
5つの畳み込み層と3つの完全連結層を持つ深い畳み込みニューラルネットワークを提示し、画像に基づく個人の年齢を推定する。
論文 参考訳(メタデータ) (2021-05-14T10:09:47Z) - Deep learning-based classification of fine hand movements from low
frequency EEG [5.414308305392762]
脳波信号から異なる手の動きの分類は、関連する研究課題である。
我々は新たに提案された畳み込みニューラルネットワーク(CNN)を訓練し、テストした。
CNNは両方のデータセットで優れたパフォーマンスを達成し、ベースラインモデルと似ているか優れている。
論文 参考訳(メタデータ) (2020-11-13T07:16:06Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z) - Denoising IMU Gyroscopes with Deep Learning for Open-Loop Attitude
Estimation [0.0]
本稿では,慣性計測ユニット(IMU)のジャイロスコープを地中真実データを用いて識別する学習手法を提案する。
得られたアルゴリズムは、(目に見えない)テストシーケンスで最先端の処理を行う。
論文 参考訳(メタデータ) (2020-02-25T08:04:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。