論文の概要: NMF-Based Analysis of Mobile Eye-Tracking Data
- arxiv url: http://arxiv.org/abs/2404.03417v1
- Date: Thu, 4 Apr 2024 12:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 14:51:30.504240
- Title: NMF-Based Analysis of Mobile Eye-Tracking Data
- Title(参考訳): NMFを用いた移動眼球追跡データの解析
- Authors: Daniel Klötzl, Tim Krake, Frank Heyen, Michael Becher, Maurice Koch, Daniel Weiskopf, Kuno Kurzhals,
- Abstract要約: 非負行列因子化(NMF)を用いて刺激の関心領域を同定することを提案する。
ユーザ定義整数 k に対して、NMF は k 成分への説明可能な分解を生成する。
我々はNMFベースの手法と可視化技術を組み合わせて、複数の録音の探索的分析を可能にする。
- 参考スコア(独自算出の注目度): 9.405059412211475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The depiction of scanpaths from mobile eye-tracking recordings by thumbnails from the stimulus allows the application of visual computing to detect areas of interest in an unsupervised way. We suggest using nonnegative matrix factorization (NMF) to identify such areas in stimuli. For a user-defined integer k, NMF produces an explainable decomposition into k components, each consisting of a spatial representation associated with a temporal indicator. In the context of multiple eye-tracking recordings, this leads to k spatial representations, where the temporal indicator highlights the appearance within recordings. The choice of k provides an opportunity to control the refinement of the decomposition, i.e., the number of areas to detect. We combine our NMF-based approach with visualization techniques to enable an exploratory analysis of multiple recordings. Finally, we demonstrate the usefulness of our approach with mobile eye-tracking data of an art gallery.
- Abstract(参考訳): 刺激からのサムネイルによる移動眼球追跡記録からのスキャンパスの描写により、視覚コンピューティングの応用により、教師なしの方法で関心のある領域を検出することができる。
非負行列因子化(NMF)を用いて刺激領域を同定することを提案する。
ユーザ定義整数 k に対して、NMF は k 成分への説明可能な分解を生成する。
複数の視線追跡記録の文脈では、これはk個の空間的表現につながり、時間的指標は記録内の外観を強調する。
k の選択は分解の洗練、すなわち検出する領域の数を制御する機会を与える。
我々はNMFベースの手法と可視化技術を組み合わせて、複数の録音の探索的分析を可能にする。
最後に,アートギャラリーの移動眼球追跡データを用いたアプローチの有用性を示す。
関連論文リスト
- MRGazer: Decoding Eye Gaze Points from Functional Magnetic Resonance
Imaging in Individual Space [4.361318731646528]
本稿では,fMRIから視線を推定するためのMRGazerというフレームワークを提案する。
従来の手法と比較して,提案フレームワークはfMRIコレジゲーションステップを省略し,処理プロトコルを単純化し,終端から終端までの視線回帰を実現する。
論文 参考訳(メタデータ) (2023-11-22T13:13:19Z) - MDFL: Multi-domain Diffusion-driven Feature Learning [19.298491870280213]
マルチドメイン拡散駆動型特徴学習ネットワーク(MDFL)を提案する。
MDFLはモデルが本当に重視する効果的な情報領域を再定義します。
MDFLは高次元データの特徴抽出性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2023-11-16T02:55:21Z) - Neural FIM for learning Fisher Information Metrics from point cloud data [71.07939200676199]
我々は、ポイントクラウドデータからフィッシャー情報量(FIM)を計算するためのニューラルFIMを提案する。
本稿では,PHATE可視化手法のパラメータの選択と,IPSCリプログラミングとPBMC(免疫細胞)の2つの単一セルデータセットと,おもちゃデータセットの分岐点とクラスタセンターの埋め込みに関する情報を得る能力について述べる。
論文 参考訳(メタデータ) (2023-06-01T17:36:13Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Learning to Fuse Monocular and Multi-view Cues for Multi-frame Depth
Estimation in Dynamic Scenes [51.20150148066458]
一般化されたマスクを必要とせず,ボリュームとして符号化された多視点と単眼のキューを融合させる新しい手法を提案する。
実世界のデータセットを用いた実験は,提案手法の有効性と性能を実証する。
論文 参考訳(メタデータ) (2023-04-18T13:55:24Z) - Multimodal Graph Learning for Deepfake Detection [10.077496841634135]
既存のディープフェイク検出器は、堅牢性と一般化を達成する上でいくつかの課題に直面している。
本稿では,マルチモーダルグラフ学習(MGL)という新しいフレームワークを提案する。
提案手法は,ディープフェイク検出のための特徴を効果的に識別し,活用することを目的としている。
論文 参考訳(メタデータ) (2022-09-12T17:17:49Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - A Topological Approach for Motion Track Discrimination [10.72000349055617]
我々は,映像系列から抽出したターゲットトラックの特徴を,位相的特徴を識別するデータとして利用する。
特に,広視野映像ストリームから抽出した動線から計算した動的統計量の時間遅延埋め込みから永続的ホモロジーを計算する。
論文 参考訳(メタデータ) (2021-02-10T19:25:38Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Neural encoding with visual attention [17.020869686284165]
トレーニング可能なソフトアテンションモジュールを組み込んだニューラルエンコーディング手法を提案する。
独立データに基づくモデルにより推定された注意位置は、対応する眼球固定パターンとよく一致している。
論文 参考訳(メタデータ) (2020-10-01T16:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。