論文の概要: Eye Movements as Indicators of Deception: A Machine Learning Approach
- arxiv url: http://arxiv.org/abs/2505.02649v1
- Date: Mon, 05 May 2025 13:50:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.690944
- Title: Eye Movements as Indicators of Deception: A Machine Learning Approach
- Title(参考訳): 認知の指標としての眼球運動--機械学習によるアプローチ
- Authors: Valentin Foucher, Santiago de Leon-Martinez, Robert Moro,
- Abstract要約: 本研究では,2つのデータセットにまたがる偽情報検査におけるAIモデルの有効性について検討した。
XGBoostは二分分類タスクで最大74%、より困難な三分分類タスクで49%の精度を達成した(Revealing vs. Concealing)。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaze may enhance the robustness of lie detectors but remains under-studied. This study evaluated the efficacy of AI models (using fixations, saccades, blinks, and pupil size) for detecting deception in Concealed Information Tests across two datasets. The first, collected with Eyelink 1000, contains gaze data from a computerized experiment where 87 participants revealed, concealed, or faked the value of a previously selected card. The second, collected with Pupil Neon, involved 36 participants performing a similar task but facing an experimenter. XGBoost achieved accuracies up to 74% in a binary classification task (Revealing vs. Concealing) and 49% in a more challenging three-classification task (Revealing vs. Concealing vs. Faking). Feature analysis identified saccade number, duration, amplitude, and maximum pupil size as the most important for deception prediction. These results demonstrate the feasibility of using gaze and AI to enhance lie detectors and encourage future research that may improve on this.
- Abstract(参考訳): 迷路は嘘検知器の頑丈さを高めるかもしれないが、未調査のままである。
本研究は,2つのデータセットにまたがる認知情報テストにおいて,AIモデル(固定,サケード,点滅,瞳孔サイズ)の有効性について検討した。
Eyelink 1000で収集された最初のデータには、87人の参加者が以前選択されたカードの値を明らかにし、隠蔽し、偽装したコンピュータ実験のデータが含まれている。
2人目はピューピル・ネオン(Pupil Neon)で集められ、36人の参加者が同様の作業を行ったが、実験者に直面した。
XGBoostは、バイナリ分類タスク(Revealing vs. Concealing)で74%、より困難な3分類タスク(Revealing vs. Concealing vs. Faking)で49%のアキュラシーを達成した。
特徴分析では, 結節数, 持続時間, 振幅, 最大瞳孔サイズが, 誤診予測の最も重要な指標であった。
これらの結果は、視線とAIを使用して嘘検出装置を強化し、これを改善する将来の研究を促進する可能性を示している。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Prior Knowledge Guided Network for Video Anomaly Detection [1.389970629097429]
ビデオ異常検出(VAD)は、ビデオ内の異常事象を検出する。
VADタスクのための事前知識誘導ネットワーク(PKG-Net)を提案する。
論文 参考訳(メタデータ) (2023-09-04T15:57:07Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - An Efficient Point of Gaze Estimator for Low-Resolution Imaging Systems
Using Extracted Ocular Features Based Neural Architecture [2.8728982844941187]
本稿では、画面上の11.31degの視覚範囲に表示される9つの位置で、ユーザの視線を予測するためのニューラルネットワークベースのアーキテクチャを提案する。
視線追跡システムは身体障害者が組み込むことができ、限られた通信手段しか持たない人には最適である。
論文 参考訳(メタデータ) (2021-06-09T14:35:55Z) - CLRGaze: Contrastive Learning of Representations for Eye Movement
Signals [0.0]
眼球運動の特徴ベクトルを自己指導的に学習する。
我々は、対照的な学習アプローチを採用し、深層ニューラルネットワークが顕著な視線パターンと粒度のパターンを識別することを奨励する一連のデータ変換を提案する。
論文 参考訳(メタデータ) (2020-10-25T06:12:06Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z) - mEBAL: A Multimodal Database for Eye Blink Detection and Attention Level
Estimation [17.279661852408335]
mEBALはアイリンクの検出とアテンションレベル推定のためのマルチモーダルデータベースである。
6,000のサンプルと38人の学生の注意レベルで構成されている。
論文 参考訳(メタデータ) (2020-06-09T15:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。