論文の概要: EgoCampus: Egocentric Pedestrian Eye Gaze Model and Dataset
- arxiv url: http://arxiv.org/abs/2512.07668v1
- Date: Mon, 08 Dec 2025 16:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.95698
- Title: EgoCampus: Egocentric Pedestrian Eye Gaze Model and Dataset
- Title(参考訳): EgoCampus:Egocentric Pedestrian Eye Gaze Modelとデータセット
- Authors: Ronan John, Aditya Kesari, Vincenzo DiMatteo, Kristin Dana,
- Abstract要約: EgoCampusデータセットは、大学キャンパスの6kmを超える25のユニークな屋外パスにまたがっている。
EgoCampusNetは,屋外を移動する歩行者の視線を予測する新しい手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the challenge of predicting human visual attention during real-world navigation by measuring and modeling egocentric pedestrian eye gaze in an outdoor campus setting. We introduce the EgoCampus dataset, which spans 25 unique outdoor paths over 6 km across a university campus with recordings from more than 80 distinct human pedestrians, resulting in a diverse set of gaze-annotated videos. The system used for collection, Meta's Project Aria glasses, integrates eye tracking, front-facing RGB cameras, inertial sensors, and GPS to provide rich data from the human perspective. Unlike many prior egocentric datasets that focus on indoor tasks or exclude eye gaze information, our work emphasizes visual attention while subjects walk in outdoor campus paths. Using this data, we develop EgoCampusNet, a novel method to predict eye gaze of navigating pedestrians as they move through outdoor environments. Our contributions provide both a new resource for studying real-world attention and a resource for future work in gaze prediction models for navigation. Dataset and code are available upon request, and will be made publicly available at a later date at https://github.com/ComputerVisionRutgers/EgoCampus .
- Abstract(参考訳): 本研究では、屋外キャンパスにおける自我中心の歩行者視線の測定とモデル化により、現実世界のナビゲーション中の人間の視覚的注意を予測することの課題に対処する。
EgoCampusのデータセットは、大学キャンパスを6km以上横断する25の独特な屋外パスにまたがって、80人以上の異なる歩行者が記録している。
収集に使われるMetaのProject Ariaメガネは、視線追跡、前面RGBカメラ、慣性センサー、GPSを統合し、人間の視点から豊富なデータを提供する。
屋内作業に重点を置いたり、視線情報を排除したりする、従来のエゴセントリックなデータセットとは異なり、我々の研究は、被験者が屋外のキャンパスの道を歩いている間、視覚的注意を強調する。
このデータを用いて,屋外を移動する歩行者の視線を予測する新しい手法であるEgoCampusNetを開発した。
我々の貢献は、現実世界の注目を集めるための新しいリソースと、ナビゲーションの視線予測モデルにおける将来の作業のためのリソースの両方を提供する。
データセットとコードはリクエストに応じて利用可能であり、後日https://github.com/ComputerVisionRutgers/EgoCampusで公開される。
関連論文リスト
- LookOut: Real-World Humanoid Egocentric Navigation [61.14016011125957]
本稿では,エゴセントリックな映像から将来の6Dヘッドポーズの列を予測するという課題を紹介する。
この課題を解決するために,時間的に集約された3次元潜伏特徴を考慮に入れた枠組みを提案する。
この分野のトレーニングデータが不足していることから,このアプローチを通じて収集されたデータセットを提示する。
論文 参考訳(メタデータ) (2025-08-20T06:43:36Z) - A Landmark-Aware Visual Navigation Dataset [6.1190419149081245]
ランドマークを意識したビジュアルナビゲーションデータセットを提示し、人中心の探索ポリシーと地図構築の教師あり学習を可能にする。
人間のアノテータが仮想環境と実環境を探索する際、RGBD観測と人間のポイントクリックペアを収集する。
私たちのデータセットは、屋内環境の部屋や屋外の通路など、幅広い場面をカバーしています。
論文 参考訳(メタデータ) (2024-02-22T04:43:20Z) - EgoTracks: A Long-term Egocentric Visual Object Tracking Dataset [19.496721051685135]
身体追跡は多くの自我中心の視覚問題にとって重要な要素である。
EgoTracksは、長期的なエゴセントリックなビジュアルオブジェクトトラッキングのための新しいデータセットである。
本稿では,STARKトラッカーの性能向上を図り,エゴセントリックデータの性能向上を図っている。
論文 参考訳(メタデータ) (2023-01-09T09:10:35Z) - Estimation of Appearance and Occupancy Information in Birds Eye View
from Surround Monocular Images [2.69840007334476]
Birds-eye View (BEV)は、トップダウンビューから、エゴ車両フレーム内の異なる交通参加者の位置を表す。
360デグ視野(FOV)をカバーするモノクラーカメラのアレイから、様々な交通参加者の外観や占有情報をキャプチャする新しい表現を提案する。
我々は、すべてのカメラ画像の学習画像埋め込みを使用して、シーンの外観と占有度の両方をキャプチャする瞬間に、シーンのBEVを生成する。
論文 参考訳(メタデータ) (2022-11-08T20:57:56Z) - Do Pedestrians Pay Attention? Eye Contact Detection in the Wild [75.54077277681353]
都市環境では、人間は近くの人々との迅速かつ効率的なコミュニケーションのためにアイコンタクトに依存している。
本稿では,環境や歩行者距離を制御できない自動運転車の眼球接触検出,すなわち実世界のシナリオに着目した。
本稿では, セマンティックキーポイントを利用したアイコンタクト検出モデルを導入し, このハイレベルな表現が, 一般公開データセットJAADの最先端結果を実現することを示す。
ドメイン適応を研究するために、私たちは、野生のアイコンタクト検出のための大規模データセット、LOOKを作成しました。
論文 参考訳(メタデータ) (2021-12-08T10:21:28Z) - Imitation Learning with Human Eye Gaze via Multi-Objective Prediction [3.5779268406205618]
本稿では,新しい文脈認識型模倣学習アーキテクチャであるGaze Regularized Imitation Learning (GRIL)を提案する。
GRILは人間のデモンストレーションと視線の両方から同時に学習し、視覚的注意が重要なコンテキストを提供するタスクを解決する。
GRILは、最先端の視線に基づく模倣学習アルゴリズムよりも優れており、同時に人間の視覚的注意を予測し、トレーニングデータに存在しないシナリオに一般化する。
論文 参考訳(メタデータ) (2021-02-25T17:13:13Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。