論文の概要: Scanpath Prediction on Information Visualisations
- arxiv url: http://arxiv.org/abs/2112.02340v1
- Date: Sat, 4 Dec 2021 13:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:05:23.774127
- Title: Scanpath Prediction on Information Visualisations
- Title(参考訳): 情報可視化におけるスカンパス予測
- Authors: Yao Wang, Mihai B\^ace, and Andreas Bulling
- Abstract要約: 本稿では,情報視覚化における視覚的満足度とスキャンパスの予測を学習するモデルを提案する。
一般的なMASSVISデータセット上で,様々な情報可視化要素に対する視線行動の詳細な解析を行う。
- 参考スコア(独自算出の注目度): 19.591855190022667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Unified Model of Saliency and Scanpaths (UMSS) -- a model that
learns to predict visual saliency and scanpaths (i.e. sequences of eye
fixations) on information visualisations. Although scanpaths provide rich
information about the importance of different visualisation elements during the
visual exploration process, prior work has been limited to predicting
aggregated attention statistics, such as visual saliency. We present in-depth
analyses of gaze behaviour for different information visualisation elements
(e.g. Title, Label, Data) on the popular MASSVIS dataset. We show that while,
overall, gaze patterns are surprisingly consistent across visualisations and
viewers, there are also structural differences in gaze dynamics for different
elements. Informed by our analyses, UMSS first predicts multi-duration
element-level saliency maps, then probabilistically samples scanpaths from
them. Extensive experiments on MASSVIS show that our method consistently
outperforms state-of-the-art methods with respect to several, widely used
scanpath and saliency evaluation metrics. Our method achieves a relative
improvement in sequence score of 11.5% for scanpath prediction, and a relative
improvement in Pearson correlation coefficient of up to 23.6% for saliency
prediction. These results are auspicious and point towards richer user models
and simulations of visual attention on visualisations without the need for any
eye tracking equipment.
- Abstract(参考訳): そこで本研究では,情報視覚化において視覚的サリエンシーとスカンパス(すなわち視線固定のシーケンス)を予測するモデルとして,サリエンシーとスカンパスの統合モデルを提案する。
スキャンパスは、視覚探索過程における異なる視覚要素の重要性に関する豊富な情報を提供するが、以前の研究は、視覚塩分など、集約された注意統計を予測することに限定されている。
一般的なMASSVISデータセット上で異なる情報可視化要素(例えば、Title, Label, Data)に対する視線行動の詳細な分析を行う。
全体として、視線パターンは視覚や視聴者の間で驚くほど一致しているが、異なる要素に対する視線ダイナミクスには構造的な違いがある。
UMSSはまずマルチデューレーション要素レベルのサリエンシマップを予測し,スキャンパスを確率的にサンプリングする。
MASSVISの広汎な実験により,本手法は複数のスキャンパスおよびサリエンシ評価指標に対して,常に最先端の手法より優れていることが示された。
本手法は,スキャンパス予測で11.5%のシーケンススコアを相対的に改善し,塩分予測で最大23.6%のピアソン相関係数を相対的に改善する。
これらの結果は,視線追跡装置を必要とせず,よりリッチなユーザモデルや視認性に対する視覚的注意のシミュレーションに資する。
関連論文リスト
- Beyond Average: Individualized Visual Scanpath Prediction [20.384132849805003]
個別化されたスキャンパス予測(ISP)は、様々な視覚的タスクにおいて、異なる個人がどのように注意をシフトするかを正確に予測することを目的としている。
ISPはオブザーバのユニークな注意特性を特徴付け統合するためのオブザーバエンコーダ、オブザーバ中心の機能統合アプローチ、適応的な固定優先順位付け機構を備えている。
提案手法は,一般に異なるデータセット,モデルアーキテクチャ,視覚的タスクに適用可能であり,一般的なスキャンパスモデルを個別化するための包括的なツールを提供する。
論文 参考訳(メタデータ) (2024-04-18T14:51:42Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [56.22339016797785]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - A Simple and efficient deep Scanpath Prediction [6.294759639481189]
我々は、単純な完全な畳み込み回帰的な方法で、共通のディープラーニングアーキテクチャーを使用することの効率について検討する。
これらのモデルが2つのデータセットのスキャンパスをいかに予測できるかを実験する。
また、実験におけるパフォーマンスに基づいて、異なるレバレッジされたバックボーンアーキテクチャを比較して、どのアーキテクチャがタスクに最も適しているかを推定する。
論文 参考訳(メタデータ) (2021-12-08T22:43:45Z) - VizAI : Selecting Accurate Visualizations of Numerical Data [2.6039035727217907]
VizAIは、データの様々な統計特性を最初に生成する生成的識別フレームワークである。
これは、視覚化されるデータの真の統計に最もよく一致する視覚化を選択する識別モデルにリンクされている。
VizAIは、最小限の監督で容易に訓練でき、様々な監督レベルの設定に適応できる。
論文 参考訳(メタデータ) (2021-11-07T22:05:44Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - SALYPATH: A Deep-Based Architecture for visual attention prediction [5.068678962285629]
視覚的注意は、画像圧縮、認識、キャプションなどの多くのコンピュータビジョンアプリケーションに有用である。
本稿では, 画像の走査パスを, サリエンシモデルの特徴を通して効率的に予測する, いわゆるSALYPATHを提案する。
その考え方は、深いベースモデルの能力を利用してスキャンパスを予測し、サリエンシを予測することである。
論文 参考訳(メタデータ) (2021-06-29T08:53:51Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。