論文の概要: Classifying Eye-Tracking Data Using Saliency Maps
- arxiv url: http://arxiv.org/abs/2010.12913v1
- Date: Sat, 24 Oct 2020 15:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 13:19:32.023065
- Title: Classifying Eye-Tracking Data Using Saliency Maps
- Title(参考訳): Saliency Maps を用いた視線追跡データの分類
- Authors: Shafin Rahman, Sejuti Rahman, Omar Shahid, Md. Tahmeed Abdullah,
Jubair Ahmed Sourov
- Abstract要約: 本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
- 参考スコア(独自算出の注目度): 8.524684315458245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A plethora of research in the literature shows how human eye fixation pattern
varies depending on different factors, including genetics, age, social
functioning, cognitive functioning, and so on. Analysis of these variations in
visual attention has already elicited two potential research avenues: 1)
determining the physiological or psychological state of the subject and 2)
predicting the tasks associated with the act of viewing from the recorded
eye-fixation data. To this end, this paper proposes a visual saliency based
novel feature extraction method for automatic and quantitative classification
of eye-tracking data, which is applicable to both of the research directions.
Instead of directly extracting features from the fixation data, this method
employs several well-known computational models of visual attention to predict
eye fixation locations as saliency maps. Comparing the saliency amplitudes,
similarity and dissimilarity of saliency maps with the corresponding eye
fixations maps gives an extra dimension of information which is effectively
utilized to generate discriminative features to classify the eye-tracking data.
Extensive experimentation using Saliency4ASD, Age Prediction, and Visual
Perceptual Task dataset show that our saliency-based feature can achieve
superior performance, outperforming the previous state-of-the-art methods by a
considerable margin. Moreover, unlike the existing application-specific
solutions, our method demonstrates performance improvement across three
distinct problems from the real-life domain: Autism Spectrum Disorder
screening, toddler age prediction, and human visual perceptual task
classification, providing a general paradigm that utilizes the
extra-information inherent in saliency maps for a more accurate classification.
- Abstract(参考訳): 論文の多くの研究は、遺伝学、年齢、社会的機能、認知機能など様々な要因によって、人間の眼の固定パターンがどう変化するかを示している。
視覚的注意のこれらの変化の分析は、既に2つの潜在的研究方法をもたらしている。
1)対象者の生理的又は心理的状態を決定すること、及び
2)記録されたアイ固定データから視聴行為に関連するタスクを予測する。
そこで本稿では,両研究の方向性に適用可能な視線追跡データの自動的・定量的分類のための視覚的サリエンシーに基づく特徴抽出手法を提案する。
固定データから特徴を直接抽出する代わりに、視覚注意の有名な計算モデルをいくつか使用し、眼の固定位置を塩分マップとして予測する。
サリエンシーマップと対応するアイフィクテーションマップの類似度・類似度を比較することで、視線追跡データを分類するための識別的特徴を効果的に生成するための余分な情報が得られる。
Saliency4ASD, Age Prediction, Visual Perceptual Task データセットを用いた大規模な実験により, 従来の最先端手法よりもかなり優れた性能が得られることが示された。
さらに,本手法は既存のアプリケーション固有のソリューションと異なり,自閉症スペクトラム障害スクリーニング,幼児年齢予測,視覚認知課題分類という3つの課題をまたいだ性能改善を実証し,より正確な分類のために塩分マップに固有の情報を利用する汎用パラダイムを提供する。
関連論文リスト
- Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study [0.9142067094647588]
本研究では,効率的な幾何アライメントのためのバイナリ固定データに基づく新しい離散化特徴符号化を提案する。
眼球固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
論文 参考訳(メタデータ) (2023-08-04T23:51:47Z) - Learning to search for and detect objects in foveal images using deep
learning [3.655021726150368]
本研究では,画像中のクラスを探索する人間の客観的な注意をエミュレートする固定予測モデルを用いる。
そして、各固定点のフェーブされた画像を分類して、シーンにターゲットが存在するか否かを判定する。
本稿では,2つのタスク間の知識伝達を可能とし,修正予測と検出を同時に行うことができる新しいデュアルタスクモデルを提案する。
論文 参考訳(メタデータ) (2023-04-12T09:50:25Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Facial Anatomical Landmark Detection using Regularized Transfer Learning
with Application to Fetal Alcohol Syndrome Recognition [24.27777060287004]
出生前アルコール曝露による胎児アルコール症候群(FAS)は、一連の頭蓋顔面異常を引き起こす可能性がある。
解剖学的ランドマーク検出は,FAS関連顔面異常の検出に重要である。
自然画像における顔のランドマーク検出のために設計された現在のディープラーニングに基づく熱マップ回帰法は、大きなデータセットが利用できることを前提としている。
我々は,大規模な顔認識データセットから学習したネットワークの知識を活用する,新たな正規化トランスファー学習手法を開発した。
論文 参考訳(メタデータ) (2021-09-12T11:05:06Z) - Deep Collaborative Multi-Modal Learning for Unsupervised Kinship
Estimation [53.62256887837659]
キンシップ検証は、コンピュータビジョンにおける長年の研究課題である。
本稿では,顔特性に表される基礎情報を統合するために,新しい協調型多モーダル学習(DCML)を提案する。
我々のDCML法は、常に最先端のキンシップ検証法よりも優れている。
論文 参考訳(メタデータ) (2021-09-07T01:34:51Z) - Understanding Character Recognition using Visual Explanations Derived
from the Human Visual System and Deep Networks [6.734853055176694]
深層ニューラルネットワークの情報収集戦略における合同性,あるいはその欠如について検討する。
深層学習モデルは、人間が正しく分類された文字に対して固定した文字の類似した領域を考慮に入れた。
本稿では、視線追跡実験から得られた視覚的固定マップを、モデルが関連する文字領域に焦点を合わせるための監督入力として用いることを提案する。
論文 参考訳(メタデータ) (2021-08-10T10:09:37Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Structured Landmark Detection via Topology-Adapting Deep Graph Learning [75.20602712947016]
解剖学的顔と医学的ランドマーク検出のための新しいトポロジ適応深層グラフ学習手法を提案する。
提案手法は局所像特徴と大域形状特徴の両方を利用するグラフ信号を構成する。
3つの公開顔画像データセット(WFLW、300W、COFW-68)と3つの現実世界のX線医学データセット(ケパロメトリ、ハンド、ペルビス)で実験を行った。
論文 参考訳(メタデータ) (2020-04-17T11:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。