論文の概要: OpenEDS2020: Open Eyes Dataset
- arxiv url: http://arxiv.org/abs/2005.03876v1
- Date: Fri, 8 May 2020 06:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 11:58:04.881227
- Title: OpenEDS2020: Open Eyes Dataset
- Title(参考訳): OpenEDS2020: Open Eyes Dataset
- Authors: Cristina Palmero, Abhishek Sharma, Karsten Behrendt, Kapil
Krishnakumar, Oleg V. Komogortsev, Sachin S. Talathi
- Abstract要約: OpenEDS 2020は、制御照明下で100Hzのフレームレートで撮影された新しいアイ画像のデータセットである。
データセットは匿名化され、参加者の個人を特定する情報を取り除きます。
- 参考スコア(独自算出の注目度): 6.53692663398188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the second edition of OpenEDS dataset, OpenEDS2020, a novel
dataset of eye-image sequences captured at a frame rate of 100 Hz under
controlled illumination, using a virtual-reality head-mounted display mounted
with two synchronized eye-facing cameras. The dataset, which is anonymized to
remove any personally identifiable information on participants, consists of 80
participants of varied appearance performing several gaze-elicited tasks, and
is divided in two subsets: 1) Gaze Prediction Dataset, with up to 66,560
sequences containing 550,400 eye-images and respective gaze vectors, created to
foster research in spatio-temporal gaze estimation and prediction approaches;
and 2) Eye Segmentation Dataset, consisting of 200 sequences sampled at 5 Hz,
with up to 29,500 images, of which 5% contain a semantic segmentation label,
devised to encourage the use of temporal information to propagate labels to
contiguous frames. Baseline experiments have been evaluated on OpenEDS2020, one
for each task, with average angular error of 5.37 degrees when performing gaze
prediction on 1 to 5 frames into the future, and a mean intersection over union
score of 84.1% for semantic segmentation. As its predecessor, OpenEDS dataset,
we anticipate that this new dataset will continue creating opportunities to
researchers in eye tracking, machine learning and computer vision communities,
to advance the state of the art for virtual reality applications. The dataset
is available for download upon request at
http://research.fb.com/programs/openeds-2020-challenge/.
- Abstract(参考訳): 我々は,2つの同期眼球カメラを搭載した仮想現実感ヘッドマウントディスプレイを用いて,100Hzのフレームレートで撮影した新しいアイ画像のデータセットであるOpenEDS2020を提示する。
参加者の個人を特定できる情報を取り除くために匿名化されたデータセットは、様々な外見を持つ80人の参加者で構成され、複数の視線誘発タスクを実行し、2つのサブセットに分けられる。
1) 時空間的視線推定及び予測アプローチの研究を促進するために,550,400個の視線画像と各視線ベクトルを含む最大66,560個の視線予測データセットが作成された。
2) 5Hzでサンプリングされた200のシーケンスと最大29,500枚の画像で構成され,5%には意味的セグメンテーションラベルが含まれており,連続したフレームにラベルを伝達するための時間情報の利用を促進するために考案された。
opens2020では、1つのタスクに対して平均角誤差が5.37度であり、将来1から5フレームで視線予測を行う場合の平均角誤差は5.37度であり、セマンティクスセグメンテーションではユニオンスコアの平均交点が84.1%である。
これまでのOpenEDSデータセットとして、この新たなデータセットは、視線追跡、機械学習、コンピュータビジョンのコミュニティの研究者にとって、バーチャルリアリティーアプリケーションのための最先端技術の機会を引き続き生み出すことを期待しています。
データセットはhttp://research.fb.com/programs/openeds-2020-challenge/からダウンロードできる。
関連論文リスト
- DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - The Full-scale Assembly Simulation Testbed (FAST) Dataset [3.483595743063401]
われわれはVRを用いたFAST(Full-scale Assembly Simulation Testbed)による新しいオープンデータセットを提案する。
このデータセットは、VRで2つの異なるフルスケール構造を組み立てる方法を学ぶ108人の参加者から収集されたデータで構成されている。
論文 参考訳(メタデータ) (2024-03-13T21:30:01Z) - PDIWS: Thermal Imaging Dataset for Person Detection in Intrusion Warning
Systems [0.0]
データセットは2000イメージのトレーニングセットと500イメージのテストセットで構成されている。
全50の背景があり、1000人近い被験者は5つのポーズに従って5つのクラスに分けられる。
最初の4つのポーズが検出された場合、侵入者の存在を確認する。
論文 参考訳(メタデータ) (2023-02-26T11:02:34Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Webly Supervised Fine-Grained Recognition: Benchmark Datasets and An
Approach [115.91099791629104]
WebFG-496 と WebiNat-5089 の2つの新しいベンチマークを構築した。
WebiNat-5089には5089のサブカテゴリと1100万以上のWebトレーニングイメージが含まれている。
そこで本研究では,これらのデータセットのベンチマークを行うための新しいウェブ教師付き手法("Peer-learning'" と呼ぶ)を提案する。
論文 参考訳(メタデータ) (2021-08-05T06:28:32Z) - Towards End-to-end Video-based Eye-Tracking [50.0630362419371]
画像のみから視線を推定することは、観察不可能な人固有の要因のために難しい課題である。
本稿では,これらの意味的関係と時間的関係を明確に学習することを目的とした,新しいデータセットとアタッチメント手法を提案する。
視覚刺激からの情報と視線画像の融合が,文献に記録された人物と同じような性能を達成することにつながることを実証した。
論文 参考訳(メタデータ) (2020-07-26T12:39:15Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。