論文の概要: STARE: Predicting Decision Making Based on Spatio-Temporal Eye Movements
- arxiv url: http://arxiv.org/abs/2508.04148v1
- Date: Wed, 06 Aug 2025 07:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.586169
- Title: STARE: Predicting Decision Making Based on Spatio-Temporal Eye Movements
- Title(参考訳): STARE:時空間眼球運動に基づく意思決定予測
- Authors: Moshe Unger, Alexander Tuzhilin, Michel Wedel,
- Abstract要約: 本稿では,意思決定環境の画像に生視や眼球修正の時系列から様々な消費者選択行動を予測するためのディープラーニングアーキテクチャを提案する。
STAREと複数のデータセット上の最先端の代替手段を比較し,眼球運動から消費者選択行動を予測することを目的とした。
- 参考スコア(独自算出の注目度): 49.906485205551746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The present work proposes a Deep Learning architecture for the prediction of various consumer choice behaviors from time series of raw gaze or eye fixations on images of the decision environment, for which currently no foundational models are available. The architecture, called STARE (Spatio-Temporal Attention Representation for Eye Tracking), uses a new tokenization strategy, which involves mapping the x- and y- pixel coordinates of eye-movement time series on predefined, contiguous Regions of Interest. That tokenization makes the spatio-temporal eye-movement data available to the Chronos, a time-series foundation model based on the T5 architecture, to which co-attention and/or cross-attention is added to capture directional and/or interocular influences of eye movements. We compare STARE with several state-of-the art alternatives on multiple datasets with the purpose of predicting consumer choice behaviors from eye movements. We thus make a first step towards developing and testing DL architectures that represent visual attention dynamics rooted in the neurophysiology of eye movements.
- Abstract(参考訳): 本研究は,決定環境の画像に生視や眼球修正の時系列から,様々な消費者選択行動を予測するためのディープラーニングアーキテクチャを提案する。
STARE(Spatio-Temporal Attention Representation for Eye Tracking)と呼ばれるこのアーキテクチャは、眼球運動時系列のx-およびy-ピクセル座標を予め定義された連続した関心領域にマッピングする新しいトークン化戦略を使用する。
このトークン化により、ChronosはT5アーキテクチャに基づく時系列基盤モデルであり、コアテンションと/またはクロスアテンションを加えて、眼球運動の方向および/または眼球運動の影響を捉えることができる。
STAREと複数のデータセット上の最先端の代替手段を比較し,眼球運動から消費者選択行動を予測することを目的とした。
そこで我々は,眼球運動の神経生理学に根ざした視覚的注意力のダイナミクスを表現したDLアーキテクチャの開発と試験に向けて第一歩を踏み出した。
関連論文リスト
- Probing Fine-Grained Action Understanding and Cross-View Generalization of Foundation Models [13.972809192907931]
ファンデーションモデル(FM)は、広いデータセットでトレーニングされた大規模なニューラルネットワークである。
ビデオにおける人間の活動認識は、異なるアーキテクチャ間の競争によって駆動されるFMによって進歩している。
本稿では,視線変化が人体活動認識の微粒化における異なるFMに与える影響を実験的に評価する。
論文 参考訳(メタデータ) (2024-07-22T12:59:57Z) - CLERA: A Unified Model for Joint Cognitive Load and Eye Region Analysis
in the Wild [18.79132232751083]
目領域のダイナミックスをリアルタイムに分析することで、人間の視覚的注意の割り当てを監視し、精神状態を推定することができる。
共同学習フレームワークにおいて,正確なキーポイント検出と時間追跡を実現するCLERAを提案する。
また,共同瞳孔,眼開放性,ランドマークアノテーションを用いた30万人の顔の大規模データセットも導入した。
論文 参考訳(メタデータ) (2023-06-26T21:20:23Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Individual Topology Structure of Eye Movement Trajectories [6.09170287691728]
本稿では,眼球運動軌跡構造の定量的解析に新たな特徴のクラスを応用することを提案する。
従来型機能との競合性と,その重要な相乗効果を実験的に実証した。
論文 参考訳(メタデータ) (2022-05-21T20:30:45Z) - Revisiting spatio-temporal layouts for compositional action recognition [63.04778884595353]
私たちは、アクション認識にオブジェクト中心のアプローチを取ります。
本論文の主な焦点は、合成/ファウショット動作認識である。
レイアウトモデルとの融合による外観モデルの性能向上を実証する。
論文 参考訳(メタデータ) (2021-11-02T23:04:39Z) - Bayesian Eye Tracking [63.21413628808946]
モデルに基づく視線追跡は、目の特徴検出エラーの影響を受けやすい。
モデルベースアイトラッキングのためのベイズフレームワークを提案する。
提案手法は,最先端のモデルベースおよび学習ベースの手法と比較して,一般化能力の大幅な向上を示す。
論文 参考訳(メタデータ) (2021-06-25T02:08:03Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Spatio-Temporal Analysis of Facial Actions using Lifecycle-Aware Capsule
Networks [12.552355581481994]
AULA-Capsは、シーケンス内の関連する時間的セグメントに注目して、連続したフレーム間で学習する。
学習した特徴カプセルは、AUライフサイクルに応じて、空間的または時間的情報に選択的に集中するようにルーティングされる。
提案モデルはBP4DおよびGFTベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-11-17T18:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。