論文の概要: AutoSIGHT: Automatic Eye Tracking-based System for Immediate Grading of Human experTise
- arxiv url: http://arxiv.org/abs/2508.01015v1
- Date: Fri, 01 Aug 2025 18:28:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.690902
- Title: AutoSIGHT: Automatic Eye Tracking-based System for Immediate Grading of Human experTise
- Title(参考訳): AutoSIGHT:人体外見の即時表示のための自動視線追跡システム
- Authors: Byron Dowling, Jozef Probcin, Adam Czajka,
- Abstract要約: 本稿では,専門家と熟練者以外のパフォーマーを分類した,人間の即時彫刻のためのオートライト自動システムを提案する。
本研究で用いたアイリス提示検出(PAD)タスクの結果,評価窓がわずか5秒で平均平均面積が0.751であることが確認された。
この研究は、人間と機械の専門知識の自動測定を人間とAIのペアリングに組み込む方法についての新しい研究領域を開く。
- 参考スコア(独自算出の注目度): 4.215251065887862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can we teach machines to assess the expertise of humans solving visual tasks automatically based on eye tracking features? This paper proposes AutoSIGHT, Automatic System for Immediate Grading of Human experTise, that classifies expert and non-expert performers, and builds upon an ensemble of features extracted from eye tracking data while the performers were solving a visual task. Results on the task of iris Presentation Attack Detection (PAD) used for this study show that with a small evaluation window of just 5 seconds, AutoSIGHT achieves an average average Area Under the ROC curve performance of 0.751 in subject-disjoint train-test regime, indicating that such detection is viable. Furthermore, when a larger evaluation window of up to 30 seconds is available, the Area Under the ROC curve (AUROC) increases to 0.8306, indicating the model is effectively leveraging more information at a cost of slightly delayed decisions. This work opens new areas of research on how to incorporate the automatic weighing of human and machine expertise into human-AI pairing setups, which need to react dynamically to nonstationary expertise distribution between the human and AI players (e.g. when the experts need to be replaced, or the task at hand changes rapidly). Along with this paper, we offer the eye tracking data used in this study collected from 6 experts and 53 non-experts solving iris PAD visual task.
- Abstract(参考訳): 視線追跡機能に基づいて視覚的タスクを自動的に解く人間の専門知識を機械に教えることができるか?
本稿では、専門家と非専門家のパフォーマーを分類し、パフォーマーが視覚課題を解決している間に、視線追跡データから抽出した特徴のアンサンブルを構築する。
本研究で用いたアイリス提示検出(PAD)タスクの結果,約5秒で平均平均面積が0.751となり,その検出が可能であることが示唆された。
さらに、最大30秒のより大きな評価ウィンドウが利用可能となると、ROC曲線(AUROC)は0.8306に増加し、そのモデルが少し遅れた決定を犠牲にして、効果的により多くの情報を活用していることを示す。
この研究は、人間と機械の専門知識の自動測定を人間とAIのペアリングにどのように組み込むかという、新たな研究領域を開く。
本稿では,6名の専門家と53名の非専門家から収集した視線追跡データを用いて,虹彩PADの視覚的課題を解決する。
関連論文リスト
- Human Scanpath Prediction in Target-Present Visual Search with Semantic-Foveal Bayesian Attention [49.99728312519117]
SemBA-FASTは、ターゲットの視覚検索における人間の視覚的注意を予測するためのトップダウンフレームワークである。
我々は、COCO-Search18ベンチマークデータセット上でSemBA-FASTを評価し、その性能を他のスキャンパス予測モデルと比較した。
これらの知見は、人間のような注意モデリングのためのセマンティック・フレーバー・確率的フレームワークの能力に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2025-07-24T15:19:23Z) - Anomaly Detection Using Computer Vision: A Comparative Analysis of Class Distinction and Performance Metrics [0.0]
本研究は,OpenCVとディープラーニング技術を組み合わせたクラス区別と性能評価に焦点を当てた。
この制度は、権限のある人(管理者)、侵入者、非人間的存在の3つの階級を効果的に区別する。
論文 参考訳(メタデータ) (2025-03-24T19:36:47Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - CLERA: A Unified Model for Joint Cognitive Load and Eye Region Analysis
in the Wild [18.79132232751083]
目領域のダイナミックスをリアルタイムに分析することで、人間の視覚的注意の割り当てを監視し、精神状態を推定することができる。
共同学習フレームワークにおいて,正確なキーポイント検出と時間追跡を実現するCLERAを提案する。
また,共同瞳孔,眼開放性,ランドマークアノテーションを用いた30万人の顔の大規模データセットも導入した。
論文 参考訳(メタデータ) (2023-06-26T21:20:23Z) - Tackling Face Verification Edge Cases: In-Depth Analysis and
Human-Machine Fusion Approach [5.574995936464475]
本稿では,顔認証作業における機械と人間の操作者の組み合わせの効果について検討する。
本研究は,60名の被験者を対象に,人間によるタスクに関する調査を行い,広範囲な分析を行った。
我々は、マシンと人間の意思決定を組み合わせることで、最先端の顔認証システムの性能をさらに向上させることができることを実証した。
論文 参考訳(メタデータ) (2023-04-17T10:29:26Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - An Efficient Point of Gaze Estimator for Low-Resolution Imaging Systems
Using Extracted Ocular Features Based Neural Architecture [2.8728982844941187]
本稿では、画面上の11.31degの視覚範囲に表示される9つの位置で、ユーザの視線を予測するためのニューラルネットワークベースのアーキテクチャを提案する。
視線追跡システムは身体障害者が組み込むことができ、限られた通信手段しか持たない人には最適である。
論文 参考訳(メタデータ) (2021-06-09T14:35:55Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。