論文の概要: Do Pedestrians Pay Attention? Eye Contact Detection in the Wild
- arxiv url: http://arxiv.org/abs/2112.04212v1
- Date: Wed, 8 Dec 2021 10:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:39:15.608976
- Title: Do Pedestrians Pay Attention? Eye Contact Detection in the Wild
- Title(参考訳): 歩行者は注意を払うか?
野生における眼球接触検出
- Authors: Younes Belkada, Lorenzo Bertoni, Romain Caristan, Taylor Mordan and
Alexandre Alahi
- Abstract要約: 都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
- 参考スコア(独自算出の注目度): 75.54077277681353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In urban or crowded environments, humans rely on eye contact for fast and
efficient communication with nearby people. Autonomous agents also need to
detect eye contact to interact with pedestrians and safely navigate around
them. In this paper, we focus on eye contact detection in the wild, i.e.,
real-world scenarios for autonomous vehicles with no control over the
environment or the distance of pedestrians. We introduce a model that leverages
semantic keypoints to detect eye contact and show that this high-level
representation (i) achieves state-of-the-art results on the publicly-available
dataset JAAD, and (ii) conveys better generalization properties than leveraging
raw images in an end-to-end network. To study domain adaptation, we create
LOOK: a large-scale dataset for eye contact detection in the wild, which
focuses on diverse and unconstrained scenarios for real-world generalization.
The source code and the LOOK dataset are publicly shared towards an open
science mission.
- Abstract(参考訳): 都市や混雑した環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに頼る。
自律エージェントはまた、歩行者と対話し、安全に周囲を移動するためにアイコンタクトを検出する必要がある。
本稿では,環境や歩行者の距離を制御しない自律走行車における実世界のシナリオとして,野生のアイコンタクト検出に焦点をあてる。
我々は、セマンティックキーポイントを利用してアイコンタクトを検出するモデルを導入し、このハイレベルな表現を示す。
(i)公開データセットjaadの最先端結果を達成し、
(II) エンド・ツー・エンドのネットワークで生画像を利用するよりも、より優れた一般化特性を伝達する。
ドメイン適応を研究するために、私たちはlook: a large-scale dataset for eye contact detection in the wild(野生のアイコンタクト検出のための大規模データセット)を作成します。
ソースコードとLOOKデータセットは、オープンサイエンスミッションに向けて公開されています。
関連論文リスト
- Multi-person eye tracking for real-world scene perception in social settings [34.82692226532414]
モバイルアイトラッキングを実世界のマルチパーソン・セットアップに適用し、同期データをストリームし、記録し、分析するシステムを開発する。
本システムは,挑戦的な動的シーンにおける正確な時間同期と正確な視線投影を実現する。
この進歩は、協調行動、グループダイナミクス、社会的相互作用に関する洞察を、高い生態学的妥当性で得る。
論文 参考訳(メタデータ) (2024-07-08T19:33:17Z) - NITEC: Versatile Hand-Annotated Eye Contact Dataset for Ego-Vision
Interaction [2.594420805049218]
我々は,手書きのアイコンタクト・データセットであるNITECについて述べる。
NITECは、エゴビジョンのアイコンタクトのための既存のデータセットを、サイズや様々な人口動態、社会的文脈、照明条件で超越している。
我々は、エゴビジョンインタラクションの分野におけるさらなる探索を促進するために、データセットを一般公開する。
論文 参考訳(メタデータ) (2023-11-08T07:42:31Z) - DECO: Dense Estimation of 3D Human-Scene Contact In The Wild [54.44345845842109]
SMPL体上の接触を推定するために、身体部分駆動とシーンコンテキスト駆動の両方の注意を用いた新しい3D接触検出器を訓練する。
すべてのベンチマークで既存のSOTAメソッドよりも大幅に優れています。
また、DECが自然画像における多様で挑戦的な現実世界の人間のインタラクションによく当てはまることを定性的に示す。
論文 参考訳(メタデータ) (2023-09-26T21:21:07Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - GTNet:Guided Transformer Network for Detecting Human-Object Interactions [10.809778265707916]
人-物間相互作用(Human-object Interaction、HOI)検出タスクは、人間を局所化し、対象を局所化し、各人-物間の相互作用を予測する。
HOIを検出するためには,相対的な空間構成やオブジェクトの意味論を利用して,画像の空間領域の空間領域を見つけることが重要である。
この問題は、自己注意に基づくガイド型トランスネットワークであるGTNetによって解決されている。
論文 参考訳(メタデータ) (2021-08-02T02:06:33Z) - MutualEyeContact: A conversation analysis tool with focus on eye contact [69.17395873398196]
MutualEyeContactは、社会的相互作用における(相互)アイコンタクトの重要性を理解するのに役立つ。
我々は、最先端の視線追跡と機械学習に基づく顔認識を組み合わせるとともに、ソーシャルインタラクションセッションの分析と可視化のためのツールを提供する。
論文 参考訳(メタデータ) (2021-07-09T15:05:53Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。