論文の概要: The Visual Experience Dataset: Over 200 Recorded Hours of Integrated Eye Movement, Odometry, and Egocentric Video
- arxiv url: http://arxiv.org/abs/2404.18934v1
- Date: Thu, 15 Feb 2024 10:34:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 11:39:16.522527
- Title: The Visual Experience Dataset: Over 200 Recorded Hours of Integrated Eye Movement, Odometry, and Egocentric Video
- Title(参考訳): 視覚体験データセット:200時間を超える統合眼球運動、オドメトリー、エゴセントリックビデオ
- Authors: Michelle R. Greene, Benjamin J. Balas, Mark D. Lescroart, Paul R. MacNeilage, Jennifer A. Hart, Kamran Binaee, Peter A. Hausamann, Ronald Mezile, Bharath Shankar, Christian B. Sinnott, Kaylie Capurro, Savannah Halow, Hunter Howe, Mariam Josyula, Annie Li, Abraham Mieses, Amina Mohamed, Ilya Nudnou, Ezra Parkhill, Peter Riley, Brett Schmidt, Matthew W. Shinkle, Wentao Si, Brian Szekely, Joaquin M. Torres, Eliana Weissmann,
- Abstract要約: Visual Experienceデータセットは717のセッションで構成されており、6歳から49歳の58人の観察者が記録している。
VEDBの潜在的な応用には、ビデオトラッキング方法論の改善、画像統計の評価、シーンとアクティビティの認識のためのディープニューラルネットワークの精細化などがある。
- 参考スコア(独自算出の注目度): 0.9644266648330361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Visual Experience Dataset (VEDB), a compilation of over 240 hours of egocentric video combined with gaze- and head-tracking data that offers an unprecedented view of the visual world as experienced by human observers. The dataset consists of 717 sessions, recorded by 58 observers ranging from 6-49 years old. This paper outlines the data collection, processing, and labeling protocols undertaken to ensure a representative sample and discusses the potential sources of error or bias within the dataset. The VEDB's potential applications are vast, including improving gaze tracking methodologies, assessing spatiotemporal image statistics, and refining deep neural networks for scene and activity recognition. The VEDB is accessible through established open science platforms and is intended to be a living dataset with plans for expansion and community contributions. It is released with an emphasis on ethical considerations, such as participant privacy and the mitigation of potential biases. By providing a dataset grounded in real-world experiences and accompanied by extensive metadata and supporting code, the authors invite the research community to utilize and contribute to the VEDB, facilitating a richer understanding of visual perception and behavior in naturalistic settings.
- Abstract(参考訳): 視覚体験データセット(VEDB: Visual Experience Dataset)は、240時間以上のエゴセントリックなビデオと視線と頭部追跡データを組み合わせたもので、人間の観察者が経験した視覚世界に対する前例のない視点を提供する。
データセットは717のセッションで構成され、6歳から49歳の58人の観測者が記録している。
本稿では,データ収集,処理,ラベル付けのプロトコルについて概説する。
VEDBの潜在的な応用としては、視線追跡方法の改善、時空間画像統計の評価、シーンとアクティビティの認識のためのディープニューラルネットワークの精細化などがある。
VEDBは、確立されたオープンサイエンスプラットフォームを通じてアクセス可能であり、拡張とコミュニティコントリビューションの計画を備えた、生きたデータセットになることを意図している。
参加者のプライバシーや潜在的なバイアスの緩和など、倫理的配慮に重点を置いてリリースされている。
現実世界の経験に根ざしたデータセットを提供し、広範なメタデータとコードのサポートを伴って、著者らは研究コミュニティにVEDBの利用とコントリビューションを呼びかけ、自然主義的な設定における視覚的知覚と行動のより豊かな理解を促進する。
関連論文リスト
- A Dataset for Crucial Object Recognition in Blind and Low-Vision Individuals' Navigation [4.413331329339185]
本稿では,視覚障害者や視覚障害者のナビゲーション作業を支援するリアルタイム物体認識システムを構築するためのデータセットを提案する。
このデータセットは、屋外空間をナビゲートするBLV個体の21の動画と、焦点グループによる研究によって改善されたBLVナビゲーションに不可欠な90のオブジェクトの分類から成っている。
論文 参考訳(メタデータ) (2024-07-23T18:19:27Z) - Panonut360: A Head and Eye Tracking Dataset for Panoramic Video [0.0]
15のパノラマ動画を50人のユーザが視聴する頭部と眼の追跡データセットを提示する。
データセットは、ビューポートの詳細を提供し、ユーザーの注意を向ける。
我々の分析では、視野に対する視線固定において、一貫した下向きのオフセットが明らかである。
論文 参考訳(メタデータ) (2024-03-26T13:54:52Z) - Concept Drift and Long-Tailed Distribution in Fine-Grained Visual Categorization: Benchmark and Method [84.68818879525568]
コンセプションドリフトとLong-Tailed Distributionデータセットを提案する。
インスタンスの特徴は時間によって異なり、長い尾の分布を示す傾向がある。
本稿ではCDLTに関連する学習課題に対処する機能組換えフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T12:42:45Z) - Towards Precision in Appearance-based Gaze Estimation in the Wild [3.4253416336476246]
我々は、より広い頭部ポーズと照明変動を有する大規模な視線推定データセット PARKS-Gaze を提案する。
提案されたデータセットはより困難で、既存の組み込みデータセットよりも、見えない参加者にモデルを一般化することができる。
論文 参考訳(メタデータ) (2023-02-05T10:09:35Z) - Do I Have Your Attention: A Large Scale Engagement Prediction Dataset
and Baselines [9.896915478880635]
「機械と対話しながら個人によって表される集中、熱意、楽観、情熱の度合いをユーザエンゲージメントと呼ぶ。」
現実の環境で動作可能なエンゲージメント予測システムを構築するためには、リッチで多様なデータセットから学ぶことが不可欠である。
野生データセットEngageNetにおける大規模多面的エンゲージメントを提案する。
論文 参考訳(メタデータ) (2023-02-01T13:25:54Z) - T2FPV: Constructing High-Fidelity First-Person View Datasets From
Real-World Pedestrian Trajectories [9.44806128120871]
実世界のトップダウントラジェクトリ・データセットから高忠実度1人称ビュー・データセットを構築する方法T2FPVを提案する。
ETH/UCY歩行者データセットを用いて、対話する歩行者の自我中心の視覚データを生成する。
論文 参考訳(メタデータ) (2022-09-22T20:14:43Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Open Graph Benchmark: Datasets for Machine Learning on Graphs [86.96887552203479]
スケーラブルで堅牢で再現可能なグラフ機械学習(ML)の研究を容易にするために,Open Graph Benchmark(OGB)を提案する。
OGBデータセットは大規模で、複数の重要なグラフMLタスクを含み、さまざまなドメインをカバーする。
各データセットに対して,有意義なアプリケーション固有のデータ分割と評価指標を用いた統一評価プロトコルを提供する。
論文 参考訳(メタデータ) (2020-05-02T03:09:50Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z) - GraspNet: A Large-Scale Clustered and Densely Annotated Dataset for
Object Grasping [49.777649953381676]
我々は,統合評価システムを用いた大規模グリップポーズ検出データセットに貢献する。
データセットには87,040枚のRGBD画像と3億7000万枚以上のグリップポーズが含まれている。
論文 参考訳(メタデータ) (2019-12-31T18:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。