論文の概要: Characterizing Personality from Eye-Tracking: The Role of Gaze and Its Absence in Interactive Search Environments
- arxiv url: http://arxiv.org/abs/2601.08287v1
- Date: Tue, 13 Jan 2026 07:24:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.096687
- Title: Characterizing Personality from Eye-Tracking: The Role of Gaze and Its Absence in Interactive Search Environments
- Title(参考訳): 視線追跡からパーソナリティを特徴づける:対話型検索環境における視線の役割と存在感
- Authors: Jiaman He, Marta Micheli, Damiano Spina, Dana McKay, Johanne R. Trippas, Noriko Kando,
- Abstract要約: 本研究の目的は,マルチモーダル時系列モデルを用いて性格特性を特徴付けることである。
我々はアイトラッカーからの生の視線データを頼りにしており、前処理を最小化しています。
我々は、視線信号を用いて性格特性を予測するモデルを訓練した。
- 参考スコア(独自算出の注目度): 8.094997233445584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personality traits influence how individuals engage, behave, and make decisions during the information-seeking process. However, few studies have linked personality to observable search behaviors. This study aims to characterize personality traits through a multimodal time-series model that integrates eye-tracking data and gaze missingness-periods when the user's gaze is not captured. This approach is based on the idea that people often look away when they think, signaling disengagement or reflection. We conducted a user study with 25 participants, who used an interactive application on an iPad, allowing them to engage with digital artifacts from a museum. We rely on raw gaze data from an eye tracker, minimizing preprocessing so that behavioral patterns can be preserved without substantial data cleaning. From this perspective, we trained models to predict personality traits using gaze signals. Our results from a five-fold cross-validation study demonstrate strong predictive performance across all five dimensions: Neuroticism (Macro F1 = 77.69%), Conscientiousness (74.52%), Openness (77.52%), Agreeableness (73.09%), and Extraversion (76.69%). The ablation study examines whether the absence of gaze information affects the model performance, demonstrating that incorporating missingness improves multimodal time-series modeling. The full model, which integrates both time-series signals and missingness information, achieves 10-15% higher accuracy and macro F1 scores across all Big Five traits compared to the model without time-series signals and missingness. These findings provide evidence that personality can be inferred from search-related gaze behavior and demonstrate the value of incorporating missing gaze data into time-series multimodal modeling.
- Abstract(参考訳): パーソナリティ特性は、情報探索プロセスにおいて個人がどのように関与し、行動し、意思決定するかに影響を与える。
しかし、観察可能な探索行動と人格を関連付ける研究はほとんどない。
本研究の目的は、視線追跡データを統合したマルチモーダル時系列モデルを用いて、視線を捉えない場合の失明期間を識別することである。
このアプローチは、人々が考えるときによく目をそらし、切り離しやリフレクションを合図するという考え方に基づいている。
我々は,iPad上でインタラクティブなアプリケーションを使用して,博物館のデジタルアーティファクトと対話できる25人の参加者を対象に,ユーザスタディを行った。
我々はアイトラッカーからの生の視線データに頼り、前処理を最小化し、実際のデータのクリーニングなしに行動パターンを保存できるようにした。
この観点から、私たちは視線信号を用いて性格特性を予測するモデルを訓練した。
神経障害(Macro F1 = 77.69%)、良性(74.52%)、開放性(77.52%)、積極性(73.09%)、外転(76.69%)である。
アブレーション研究では、視線情報の欠如がモデル性能に影響を及ぼすかどうかを検証し、欠如を取り入れることでマルチモーダル時系列モデリングが向上することを示した。
時系列信号と欠落情報の両方を統合したフルモデルは、時系列信号と欠落のないモデルと比較して、すべてのビッグファイブ特性に対して10~15%高い精度とマクロF1スコアを達成する。
これらの結果は,検索関連視線行動からパーソナリティを推定できることを示すとともに,時系列マルチモーダルモデリングに失明した視線データを組み込むことの価値を示すものである。
関連論文リスト
- CHART-6: Human-Centered Evaluation of Data Visualization Understanding in Vision-Language Models [18.891323067948285]
データビジュアライゼーションに関する推論を含むタスクにおいて、視覚言語モデルがどのように人間の振る舞いをエミュレートするかは不明だ。
そこで我々は,人間向けに設計された6つのデータ可視化リテラシー評価において,視覚言語モデル8つを評価した。
その結果、これらのモデルは平均して人間よりも悪い結果が得られた。
論文 参考訳(メタデータ) (2025-05-22T18:15:04Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Multi-modal Affect Analysis using standardized data within subjects in
the Wild [8.05417723395965]
本稿では,表情(EXP)に着目した感情認識手法を提案する。
提案手法は,評価精度とロバスト性を効果的に向上する。
論文 参考訳(メタデータ) (2021-07-07T04:18:28Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Personality-Driven Gaze Animation with Conditional Generative
Adversarial Networks [0.24366811507669117]
日常的な作業を行う42人の被験者の視線追跡データと性格特性を用いてモデルを訓練する。
ビッグファイブの性格特性の値から, 視線目標, 点滅時間, 瞳孔次元からなる時系列データを生成する。
生成したデータを用いて,ゲームエンジン上の仮想エージェントの視線運動を合成する。
論文 参考訳(メタデータ) (2020-11-11T00:31:45Z) - A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild [0.2216657815393579]
本稿では,ABAW(Affective Behavior Analysis in-the-Wild)2020 Contestに提出された感情認識手法を紹介する。
感情行動には独自の時間枠を持つ観測可能な多くの特徴があるため、複数の最適化された時間窓を導入しました。
時間ごとの感情認識モデルを作成し、これらのモデルをまとめました。
論文 参考訳(メタデータ) (2020-09-29T09:24:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。