論文の概要: GazeMAE: General Representations of Eye Movements using a Micro-Macro
Autoencoder
- arxiv url: http://arxiv.org/abs/2009.02437v2
- Date: Sun, 25 Oct 2020 06:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 20:44:26.823623
- Title: GazeMAE: General Representations of Eye Movements using a Micro-Macro
Autoencoder
- Title(参考訳): GazeMAE:マイクロマクロオートエンコーダを用いた眼球運動の一般表現
- Authors: Louise Gillian C. Bautista and Prospero C. Naval Jr
- Abstract要約: 本研究では,視線行動における重要なニュアンスを刺激非依存に保った眼球運動の抽象表現を提案する。
眼球運動を生の位置と速度の信号とみなし、深部側頭葉畳み込みオートエンコーダを訓練する。
オートエンコーダは、目の動きの速い特徴と遅い特徴に対応するマイクロスケールとマクロスケールの表現を学習する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye movements are intricate and dynamic events that contain a wealth of
information about the subject and the stimuli. We propose an abstract
representation of eye movements that preserve the important nuances in gaze
behavior while being stimuli-agnostic. We consider eye movements as raw
position and velocity signals and train separate deep temporal convolutional
autoencoders. The autoencoders learn micro-scale and macro-scale
representations that correspond to the fast and slow features of eye movements.
We evaluate the joint representations with a linear classifier fitted on
various classification tasks. Our work accurately discriminates between gender
and age groups, and outperforms previous works on biometrics and stimuli
clasification. Further experiments highlight the validity and generalizability
of this method, bringing eye tracking research closer to real-world
applications.
- Abstract(参考訳): 眼球運動は、対象と刺激に関する豊富な情報を含む複雑でダイナミックな出来事である。
視覚行動における重要なニュアンスを,刺激非依存に保ちながら保存する眼球運動の抽象表現を提案する。
我々は眼球運動を生の位置と速度の信号として考慮し,深い時間的畳み込みオートエンコーダを訓練する。
オートエンコーダは、眼球運動の高速で遅い特徴に対応する、マイクロスケールとマクロスケールの表現を学ぶ。
様々な分類課題に適応した線形分類器を用いて共同表現を評価する。
我々の研究は性別と年齢を正確に区別し、バイオメトリックスや刺激クラシフィケーションに関する過去の研究よりも優れています。
さらなる実験では、この方法の有効性と一般化性を強調し、アイトラッキング研究を現実世界のアプリケーションに近づけた。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - A Framework for Pupil Tracking with Event Cameras [1.708806485130162]
サッカデス(Saccades)は、同時に起こる両眼の非常に速い動きである。
ササード中の眼の最高角速度は、ヒトでは700deg/sに達する。
標準的なディープラーニングアルゴリズムで容易に利用できるフレームとしてイベントを提示する。
論文 参考訳(メタデータ) (2024-07-23T17:32:02Z) - Focused State Recognition Using EEG with Eye Movement-Assisted Annotation [4.705434077981147]
脳波と眼球運動の特徴を学習するためのディープラーニングモデルは、脳活動の分類に有効である。
焦点を絞った状態は、タスクや思考に強い集中力を示し、焦点を絞らない状態は目の動きによって達成される。
論文 参考訳(メタデータ) (2024-06-15T14:06:00Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - Modeling Human Eye Movements with Neural Networks in a Maze-Solving Task [2.092312847886424]
眼球運動の深部生成モデルを構築し,眼球運動と眼球運動の融合を図った。
人間の目の動きは、できるだけ効率的にタスクを実行するのではなく、迷路を横断する物体の内部シミュレーションを実行するように最適化されたモデルによって予測される。
論文 参考訳(メタデータ) (2022-12-20T15:48:48Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - CLRGaze: Contrastive Learning of Representations for Eye Movement
Signals [0.0]
眼球運動の特徴ベクトルを自己指導的に学習する。
我々は、対照的な学習アプローチを採用し、深層ニューラルネットワークが顕著な視線パターンと粒度のパターンを識別することを奨励する一連のデータ変換を提案する。
論文 参考訳(メタデータ) (2020-10-25T06:12:06Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。