論文の概要: NITEC: Versatile Hand-Annotated Eye Contact Dataset for Ego-Vision
Interaction
- arxiv url: http://arxiv.org/abs/2311.04505v1
- Date: Wed, 8 Nov 2023 07:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 16:53:42.629855
- Title: NITEC: Versatile Hand-Annotated Eye Contact Dataset for Ego-Vision
Interaction
- Title(参考訳): nitec: ego-visionインタラクションのための多彩なハンドアノテートアイコンタクトデータセット
- Authors: Thorsten Hempel, Magnus Jung, Ahmed A. Abdelrahman, Ayoub Al-Hamadi
- Abstract要約: 我々は,手書きのアイコンタクト・データセットであるNITECについて述べる。
NITECは、エゴビジョンのアイコンタクトのための既存のデータセットを、サイズや様々な人口動態、社会的文脈、照明条件で超越している。
我々は、エゴビジョンインタラクションの分野におけるさらなる探索を促進するために、データセットを一般公開する。
- 参考スコア(独自算出の注目度): 2.594420805049218
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Eye contact is a crucial non-verbal interaction modality and plays an
important role in our everyday social life. While humans are very sensitive to
eye contact, the capabilities of machines to capture a person's gaze are still
mediocre. We tackle this challenge and present NITEC, a hand-annotated eye
contact dataset for ego-vision interaction. NITEC exceeds existing datasets for
ego-vision eye contact in size and variety of demographics, social contexts,
and lighting conditions, making it a valuable resource for advancing
ego-vision-based eye contact research. Our extensive evaluations on NITEC
demonstrate strong cross-dataset performance, emphasizing its effectiveness and
adaptability in various scenarios, that allows seamless utilization to the
fields of computer vision, human-computer interaction, and social robotics. We
make our NITEC dataset publicly available to foster reproducibility and further
exploration in the field of ego-vision interaction.
https://github.com/thohemp/nitec
- Abstract(参考訳): アイコンタクトは非言語的相互作用の重要なモダリティであり、日常生活において重要な役割を果たす。
人間は目の接触に非常に敏感だが、人間の視線を捉える機械の能力はいまだに平凡である。
我々はこの課題に取り組み、エゴビジョンインタラクションのための手書きアイコンタクトデータセットであるNITECを提示する。
NITECは、エゴビジョンベースのアイコンタクト研究を進めるための貴重な資源として、サイズや様々な人口動態、社会的文脈、照明条件の既存のデータセットを超えている。
NITECに関する広範な評価は、コンピュータビジョン、人間とコンピュータの相互作用、社会ロボティクスの分野にシームレスに活用できる様々なシナリオにおいて、その有効性と適応性を強調し、強力なデータセット性能を示している。
我々はNITECデータセットを公開し、再現性を高め、エゴビジョンインタラクションの分野でさらなる探索を行う。
https://github.com/thohemp/nitec
関連論文リスト
- Ask, Pose, Unite: Scaling Data Acquisition for Close Interactions with Vision Language Models [5.541130887628606]
密接な人間間相互作用における社会的ダイナミクスはヒューマンメッシュ推定(HME)に重大な課題をもたらす
本稿では,LVLM(Large Vision Language Models)を用いた新しいデータ生成手法を提案する。
この手法は、アノテーションの負担を軽減するだけでなく、HME内の密接な相互作用に適した包括的なデータセットの組み立てを可能にする。
論文 参考訳(メタデータ) (2024-10-01T01:14:24Z) - EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - CLERA: A Unified Model for Joint Cognitive Load and Eye Region Analysis
in the Wild [18.79132232751083]
目領域のダイナミックスをリアルタイムに分析することで、人間の視覚的注意の割り当てを監視し、精神状態を推定することができる。
共同学習フレームワークにおいて,正確なキーポイント検出と時間追跡を実現するCLERAを提案する。
また,共同瞳孔,眼開放性,ランドマークアノテーションを用いた30万人の顔の大規模データセットも導入した。
論文 参考訳(メタデータ) (2023-06-26T21:20:23Z) - Facial Expression Recognition using Squeeze and Excitation-powered Swin
Transformers [0.0]
本研究では,Swin Vision Transformers (SwinT) とSwin Vision Transformers (SE) を用いて,視覚タスクに対処するフレームワークを提案する。
我々の焦点は、最小限のデータを使って顔の感情を認識できるSwinTアーキテクチャに基づく効率的なFERモデルを作ることであった。
我々は、ハイブリッドデータセットでモデルをトレーニングし、そのパフォーマンスをAffectNetデータセットで評価し、F1スコア0.5420を達成しました。
論文 参考訳(メタデータ) (2023-01-26T02:29:17Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - MutualEyeContact: A conversation analysis tool with focus on eye contact [69.17395873398196]
MutualEyeContactは、社会的相互作用における(相互)アイコンタクトの重要性を理解するのに役立つ。
我々は、最先端の視線追跡と機械学習に基づく顔認識を組み合わせるとともに、ソーシャルインタラクションセッションの分析と可視化のためのツールを提供する。
論文 参考訳(メタデータ) (2021-07-09T15:05:53Z) - A Computer Vision System to Help Prevent the Transmission of COVID-19 [79.62140902232628]
新型コロナウイルスのパンデミックは世界中の日常生活のあらゆる領域に影響を与える。
保健機関は、ソーシャルディスタンス、フェイスマスクを着用し、触れる顔を避けることをアドバイスします。
我々は、新型コロナウイルスの感染を防ぐためのディープラーニングベースのコンピュータビジョンシステムを開発した。
論文 参考訳(メタデータ) (2021-03-16T00:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。