論文の概要: Modeling Human Eye Movements with Neural Networks in a Maze-Solving Task
- arxiv url: http://arxiv.org/abs/2212.10367v1
- Date: Tue, 20 Dec 2022 15:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 14:45:08.139024
- Title: Modeling Human Eye Movements with Neural Networks in a Maze-Solving Task
- Title(参考訳): 迷路探索作業におけるニューラルネットワークによる眼球運動のモデル化
- Authors: Jason Li, Nicholas Watters, Yingting (Sandy) Wang, Hansem Sohn,
Mehrdad Jazayeri
- Abstract要約: 眼球運動の深部生成モデルを構築し,眼球運動と眼球運動の融合を図った。
人間の目の動きは、できるだけ効率的にタスクを実行するのではなく、迷路を横断する物体の内部シミュレーションを実行するように最適化されたモデルによって予測される。
- 参考スコア(独自算出の注目度): 2.092312847886424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: From smoothly pursuing moving objects to rapidly shifting gazes during visual
search, humans employ a wide variety of eye movement strategies in different
contexts. While eye movements provide a rich window into mental processes,
building generative models of eye movements is notoriously difficult, and to
date the computational objectives guiding eye movements remain largely a
mystery. In this work, we tackled these problems in the context of a canonical
spatial planning task, maze-solving. We collected eye movement data from human
subjects and built deep generative models of eye movements using a novel
differentiable architecture for gaze fixations and gaze shifts. We found that
human eye movements are best predicted by a model that is optimized not to
perform the task as efficiently as possible but instead to run an internal
simulation of an object traversing the maze. This not only provides a
generative model of eye movements in this task but also suggests a
computational theory for how humans solve the task, namely that humans use
mental simulation.
- Abstract(参考訳): 動きを円滑に追跡するから、視線を急速にシフトさせるまで、人間は様々な状況で様々な眼球運動戦略を採用する。
眼球運動は精神過程の豊かな窓を提供するが、眼球運動の生成モデルの構築は非常に難しく、これまでは、眼球運動を導く計算目的はほとんど謎のままである。
本研究では,maze-solvingという正準空間計画タスクの文脈で,これらの問題に取り組む。
被験者の眼球運動データを収集し,眼球運動の深部生成モデルを構築した。
人間の目の動きは、できるだけ効率的にタスクを実行するのではなく、迷路を横断する物体の内部シミュレーションを実行するよう最適化されたモデルによって予測される。
これは、このタスクで目の動きの生成モデルを提供するだけでなく、人間がどのようにタスクを解くかという計算理論も提案している。
関連論文リスト
- Energy-Efficient Visual Search by Eye Movement and Low-Latency Spiking
Neural Network [8.380017457339756]
人間の視覚には、非均一解像度網膜、効率的な眼球運動戦略、およびスパイクニューラルネットワーク(SNN)が組み込まれており、視野のサイズ、視覚解像度、エネルギーコスト、推論遅延の要件のバランスをとる。
本稿では,人間の視覚的検索行動を調査し,最初のSNNに基づく視覚的検索モデルを確立する。
このモデルでは,人間に近い,あるいは準最適の固定戦略を学習し,探索速度と精度で人間より優れ,短時間のササード決定待ち時間とスパースアクティベーションによって高いエネルギー効率を達成することができる。
論文 参考訳(メタデータ) (2023-10-10T12:39:10Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Computing a human-like reaction time metric from stable recurrent vision
models [11.87006916768365]
我々は,刺激計算可能なタスク最適化モデルから,反応時間の計算量を構築するための汎用方法論をスケッチする。
評価基準は,4つの異なる視覚的意思決定タスクの刺激操作において,人間の反応時間のパターンと一致していることを示す。
この研究は、他の様々な認知タスクの文脈において、モデルと人間の視覚戦略の時間的アライメントを探索する方法を開拓する。
論文 参考訳(メタデータ) (2023-06-20T14:56:02Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - MIDAS: Deep learning human action intention prediction from natural eye
movement patterns [6.557082555839739]
自然視のみに基づく対象操作タスクに対する人間の意図をデコードするための、完全にデータ駆動型アプローチを提案する。
以上の結果から,自然な視線と相対位置から純粋に人間の動きの意図を911.9%の精度で復号できることが示唆された。
論文 参考訳(メタデータ) (2022-01-22T21:52:42Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - Generalization Through Hand-Eye Coordination: An Action Space for
Learning Spatially-Invariant Visuomotor Control [67.23580984118479]
模倣学習(il)は、オフラインデモデータから視覚能力を学ぶための効果的なフレームワークである。
手目行動ネットワーク(HAN)は、人間の遠隔操作による実証から学習することにより、人間の手目協調行動を推定することができる。
論文 参考訳(メタデータ) (2021-02-28T01:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。