論文の概要: Few-shot Personalized Scanpath Prediction
- arxiv url: http://arxiv.org/abs/2504.05499v1
- Date: Mon, 07 Apr 2025 20:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:03.887534
- Title: Few-shot Personalized Scanpath Prediction
- Title(参考訳): パーソナライズされたスキャンパス予測
- Authors: Ruoyu Xue, Jingyi Xu, Sounak Mondal, Hieu Le, Gregory Zelinsky, Minh Hoai, Dimitris Samaras,
- Abstract要約: スキャンパス予測のためのパーソナライズされたモデルは、個々の被験者の視覚的嗜好と注意パターンに関する洞察を提供する。
既存のスキャンパス予測モデルのトレーニング方法は、データ集約的であり、新しい個人に効果的にパーソナライズできない。
本稿では,ペルソナライズされたパーソナライズされたスキャンパス予測タスク(FS-PSP)とそれに対応する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 49.20881410145068
- License:
- Abstract: A personalized model for scanpath prediction provides insights into the visual preferences and attention patterns of individual subjects. However, existing methods for training scanpath prediction models are data-intensive and cannot be effectively personalized to new individuals with only a few available examples. In this paper, we propose few-shot personalized scanpath prediction task (FS-PSP) and a novel method to address it, which aims to predict scanpaths for an unseen subject using minimal support data of that subject's scanpath behavior. The key to our method's adaptability is the Subject-Embedding Network (SE-Net), specifically designed to capture unique, individualized representations for each subject's scanpaths. SE-Net generates subject embeddings that effectively distinguish between subjects while minimizing variability among scanpaths from the same individual. The personalized scanpath prediction model is then conditioned on these subject embeddings to produce accurate, personalized results. Experiments on multiple eye-tracking datasets demonstrate that our method excels in FS-PSP settings and does not require any fine-tuning steps at test time. Code is available at: https://github.com/cvlab-stonybrook/few-shot-scanpath
- Abstract(参考訳): スキャンパス予測のためのパーソナライズされたモデルは、個々の被験者の視覚的嗜好と注意パターンに関する洞察を提供する。
しかし、既存のスキャンパス予測モデルのトレーニング方法はデータ集約的であり、利用可能な例は少ないが、新しい個人に効果的にパーソナライズすることはできない。
本稿では,その被験者のスキャンパス行動の最小サポートデータを用いて,未確認者に対するスキャンパスの予測を目的とした,少数のパーソナライズされたスキャンパス予測タスク(FS-PSP)とそれに対応する新しい手法を提案する。
本手法の適応性向上の鍵は,各被験者のスキャンパスに対して,個別化されたユニークな表現をキャプチャするために特別に設計されたSE-Netである。
SE-Netは、同一個人からのスキャンパス間の変動を最小限にしながら、効果的に被検体を識別する被検体埋め込みを生成する。
次に、パーソナライズされたスキャンパス予測モデルをこれらの被写体埋め込みに条件付けし、正確なパーソナライズされた結果を生成する。
複数の視線追跡データセットの実験では,FS-PSP設定が優れており,テスト時に微調整のステップが不要であることが示されている。
https://github.com/cvlab-stonybrook/few-shot-scanpath
関連論文リスト
- GazeXplain: Learning to Predict Natural Language Explanations of Visual Scanpaths [20.384132849805003]
本稿では,視覚スキャンパス予測と説明の新しい研究であるGazeXplainを紹介する。
これには、視線追跡データセットにまたがる修正のための自然言語の説明が注釈付けされる。
多様な視線追跡データセットの実験は、スキャンパス予測と説明の両方においてGazeXplainの有効性を示す。
論文 参考訳(メタデータ) (2024-08-05T19:11:46Z) - EyeFormer: Predicting Personalized Scanpaths with Transformer-Guided Reinforcement Learning [31.583764158565916]
視覚的ユーザインタフェースにおけるスキャンパスを予測する機械学習モデルであるEyeFormerを提案する。
我々のモデルは、いくつかのユーザ・スキャンパス・サンプルが与えられたとき、パーソナライズされた予測を生成するユニークな能力を持っている。
固定位置や持続時間を含む全スキャンパス情報を個人や様々な刺激タイプで予測することができる。
論文 参考訳(メタデータ) (2024-04-15T22:26:27Z) - A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Explicit Visual Prompting for Universal Foreground Segmentations [55.51869354956533]
我々は,タスク固有の設計を伴わずに,複数の前景セグメンテーションタスクを統一したフレームワークを提案する。
我々は、広く使われている事前学習からインスピレーションを得て、NLPのチューニングプロトコルを高速化する。
本手法は,事前学習したモデルを凍結し,いくつかのパラメータを用いてタスク固有の知識を学習する。
論文 参考訳(メタデータ) (2023-05-29T11:05:01Z) - Scanpath Prediction in Panoramic Videos via Expected Code Length
Minimization [27.06179638588126]
損失データ圧縮の原理に基づくスキャンパス予測のための新しい基準を提案する。
この基準は、トレーニングセットにおける量子化されたスキャンパスのコード長を最小化することを示唆している。
また、現実的な人間のようなスキャンパスを生成するために、PID(Paldical-Integrated-Integrated-Divative)コントローラベースのサンプリングも導入する。
論文 参考訳(メタデータ) (2023-05-04T04:10:47Z) - An Inter-observer consistent deep adversarial training for visual
scanpath prediction [66.46953851227454]
本稿では,軽量なディープニューラルネットワークによるスキャンパス予測のための,サーバ間一貫した対向トレーニング手法を提案する。
我々は、最先端の手法に関して、我々のアプローチの競争力を示す。
論文 参考訳(メタデータ) (2022-11-14T13:22:29Z) - A Probabilistic Time-Evolving Approach to Scanpath Prediction [8.669748138523758]
ベイズ深層学習に基づくスキャンパス予測のための確率論的時間進化手法を提案する。
我々のモデルは、現在の最先端のアプローチよりも優れており、ほぼ人間のベースラインに匹敵する結果をもたらす。
論文 参考訳(メタデータ) (2022-04-20T11:50:29Z) - ScanGAN360: A Generative Model of Realistic Scanpaths for 360$^{\circ}$
Images [92.8211658773467]
ScanGAN360は,360ドル周画像のスキャンパスを生成するための,新たな生成逆解析手法である。
我々は,損失関数として動的時間ゆがみの球面適応を利用することにより,これを実現する。
私たちのスキャンパスの品質は、競合するアプローチを大きなマージンで上回り、人間のベースラインとほぼ同等です。
論文 参考訳(メタデータ) (2021-03-25T15:34:18Z) - State-of-the-Art in Human Scanpath Prediction [22.030889583780514]
過去のスキャンパス履歴から,スキャンパスにおける各固定の精度をモデルとして評価した。
これにより、モデル評価は、下層スキャンパス生成と考えられる生物学的プロセスと密接に整合する。
MIT1003, MIT300, CAT2000, CAT200のデータセット上でのスキャンパス予測の多くの既存モデルを評価する。
論文 参考訳(メタデータ) (2021-02-24T12:01:28Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。