論文の概要: Where Is My Mind (looking at)? Predicting Visual Attention from Brain
Activity
- arxiv url: http://arxiv.org/abs/2201.03902v1
- Date: Tue, 11 Jan 2022 12:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 17:20:19.731659
- Title: Where Is My Mind (looking at)? Predicting Visual Attention from Brain
Activity
- Title(参考訳): 私の心はどこにありますか.
脳活動からの視覚的注意の予測
- Authors: Victor Delvigne, No\'e Tits, Luca La Fisca, Nathan Hubens, Antoine
Maiorca, Hazem Wannous, Thierry Dutoit and Jean-Philippe Vandeborre
- Abstract要約: 注目度マップを推定する最も一般的なアプローチの1つは、観察された画像に基づいている。
脳波の取得から視覚的注意を抽出できることが示される。
結果は観察された画像の従来の予測に匹敵する。
- 参考スコア(独自算出の注目度): 2.3328195425884264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual attention estimation is an active field of research at the crossroads
of different disciplines: computer vision, artificial intelligence and
medicine. One of the most common approaches to estimate a saliency map
representing attention is based on the observed images. In this paper, we show
that visual attention can be retrieved from EEG acquisition. The results are
comparable to traditional predictions from observed images, which is of great
interest. For this purpose, a set of signals has been recorded and different
models have been developed to study the relationship between visual attention
and brain activity. The results are encouraging and comparable with other
approaches estimating attention with other modalities. The codes and dataset
considered in this paper have been made available at
\url{https://figshare.com/s/3e353bd1c621962888ad} to promote research in the
field.
- Abstract(参考訳): 視覚的注意の推定は、コンピュータビジョン、人工知能、医学といった様々な分野の研究の活発な分野である。
注目度マップを推定する最も一般的なアプローチの1つは、観察された画像に基づいている。
本稿では,脳波の取得から視覚的注意を抽出できることを示す。
結果は観測された画像からの従来の予測に匹敵する。
この目的のために一連の信号が記録され、視覚注意と脳活動の関係を研究するために異なるモデルが開発されている。
結果は奨励的であり、他のモダリティによる注意を推定する他のアプローチと比較できる。
この論文で検討されているコードとデータセットは、この分野の研究を促進するために \url{https://figshare.com/s/3e353bd1c62 1962888ad} で利用可能である。
関連論文リスト
- GEM: Context-Aware Gaze EstiMation with Visual Search Behavior Matching for Chest Radiograph [32.1234295417225]
本稿では,放射線科医が収集した視線データを用いて視覚的な探索行動パターンをシミュレートする,文脈対応型Gaze EstiMation (GEM) ネットワークを提案する。
コンテキスト認識モジュール、視覚行動グラフ構築、視覚行動マッチングで構成される。
4つの公開データセットの実験は、既存の方法よりもGEMの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-08-10T09:46:25Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Passive attention in artificial neural networks predicts human visual
selectivity [8.50463394182796]
受動的注意法は人間の視覚的選択性の推定と大きく重なることを示す。
認識実験を用いて,これらの相関関係を因果操作で検証した。
この研究は、人間の視覚のモデルとして、主要なANNの生物学的および心理的妥当性を評価するための新しいアプローチに寄与する。
論文 参考訳(メタデータ) (2021-07-14T21:21:48Z) - SALYPATH: A Deep-Based Architecture for visual attention prediction [5.068678962285629]
視覚的注意は、画像圧縮、認識、キャプションなどの多くのコンピュータビジョンアプリケーションに有用である。
本稿では, 画像の走査パスを, サリエンシモデルの特徴を通して効率的に予測する, いわゆるSALYPATHを提案する。
その考え方は、深いベースモデルの能力を利用してスキャンパスを予測し、サリエンシを予測することである。
論文 参考訳(メタデータ) (2021-06-29T08:53:51Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。