論文の概要: Déjà Vu? Decoding Repeated Reading from Eye Movements
- arxiv url: http://arxiv.org/abs/2502.11061v1
- Date: Sun, 16 Feb 2025 09:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:13:03.295374
- Title: Déjà Vu? Decoding Repeated Reading from Eye Movements
- Title(参考訳): Déjà Vu? 眼球運動から繰り返し読み取る復号法
- Authors: Yoav Meiri, Omer Shubi, Cfir Avraham Hadar, Ariel Kreisberg Nitzav, Yevgeni Berzak,
- Abstract要約: 視線移動パターンに基づいて、読者が以前テキストに遭遇したかどうかを自動的に判断できるかどうかを問う。
我々はこのタスクの2つの変種を導入し、特徴ベースモデルとニューラルモデルの両方を用いて大きな成功を収めた。
本稿では,モデルが使用する情報に対する洞察を得られるモデル性能の分析を行い,その一方で,予測モデリングを解析ツールとして活用し,繰り返し読み出しにおけるメモリの役割をよりよく評価する。
- 参考スコア(独自算出の注目度): 1.1652979442763178
- License:
- Abstract: Be it your favorite novel, a newswire article, a cooking recipe or an academic paper -- in many daily situations we read the same text more than once. In this work, we ask whether it is possible to automatically determine whether the reader has previously encountered a text based on their eye movement patterns. We introduce two variants of this task and address them with considerable success using both feature-based and neural models. We further introduce a general strategy for enhancing these models with machine generated simulations of eye movements from a cognitive model. Finally, we present an analysis of model performance which on the one hand yields insights on the information used by the models, and on the other hand leverages predictive modeling as an analytic tool for better characterization of the role of memory in repeated reading. Our work advances the understanding of the extent and manner in which eye movements in reading capture memory effects from prior text exposure, and paves the way for future applications that involve predictive modeling of repeated reading.
- Abstract(参考訳): お気に入りの小説、ニュースワイヤー記事、料理のレシピ、学術論文などでも、毎日同じ文章を1回以上読んだことがある。
本研究は,視線移動パターンに基づいて,読者が以前テキストに遭遇したかどうかを自動的に判断できるかどうかを問うものである。
我々はこのタスクの2つの変種を導入し、特徴ベースモデルとニューラルモデルの両方を用いて大きな成功を収めた。
さらに、認知モデルから眼球運動の機械的シミュレーションを用いて、これらのモデルを強化するための一般的な戦略を導入する。
最後に、モデルの性能分析を行い、モデルが使用する情報についての洞察を得る一方、予測モデリングを分析ツールとして活用し、繰り返し読み出しにおけるメモリの役割をよりよく評価する。
本研究は,読取時の眼球運動が先行テキスト曝露から記憶に与える影響の程度と方法を理解し,反復読取の予測モデルを含む将来の応用への道を開くものである。
関連論文リスト
- Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - ScanDL: A Diffusion Model for Generating Synthetic Scanpaths on Texts [0.5520145204626482]
読書における眼球運動は精神言語研究において重要な役割を担っている。
眼球運動データの不足とアプリケーション時の利用不可能は、この研究のラインにとって大きな課題となっている。
ScanDLはテキスト上で合成スキャンパスを生成する新しい離散シーケンス対シーケンス拡散モデルである。
論文 参考訳(メタデータ) (2023-10-24T07:52:19Z) - Localization vs. Semantics: Visual Representations in Unimodal and
Multimodal Models [57.08925810659545]
既存の視覚・言語モデルと視覚のみのモデルにおける視覚表現の比較分析を行う。
我々の経験的観察は、視覚・言語モデルがラベル予測タスクに優れていることを示唆している。
我々の研究は、視覚学習における言語の役割に光を当て、様々な事前学習モデルの実証的なガイドとして機能することを願っている。
論文 参考訳(メタデータ) (2022-12-01T05:00:18Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - Reading Isn't Believing: Adversarial Attacks On Multi-Modal Neurons [0.0]
矛盾するテキストと画像信号は、モデルを混乱させ、誤った(視覚的)オプションを選択することができることを示す。
例として、CLIPモデルが最初に読む傾向があり、後で見て、読み取りが信じていないと記述する現象を示します。
論文 参考訳(メタデータ) (2021-03-18T18:56:51Z) - Using Human Psychophysics to Evaluate Generalization in Scene Text
Recognition Models [7.294729862905325]
我々は2つの重要なシーンテキスト認識モデルを,その領域を計測することで特徴付ける。
ドメインは、読み手が様々な単語の長さ、フォント、閉塞量に一般化する能力を指定する。
論文 参考訳(メタデータ) (2020-06-30T19:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。