論文の概要: TEyeD: Over 20 million real-world eye images with Pupil, Eyelid, and
Iris 2D and 3D Segmentations, 2D and 3D Landmarks, 3D Eyeball, Gaze Vector,
and Eye Movement Types
- arxiv url: http://arxiv.org/abs/2102.02115v1
- Date: Wed, 3 Feb 2021 15:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:15:34.680563
- Title: TEyeD: Over 20 million real-world eye images with Pupil, Eyelid, and
Iris 2D and 3D Segmentations, 2D and 3D Landmarks, 3D Eyeball, Gaze Vector,
and Eye Movement Types
- Title(参考訳): teyed: 瞳孔, まぶた, iris 2dおよび3dセグメンテーション, 2dおよび3dランドマーク, 3d眼球, 視線ベクトル, 眼球運動タイプによる2000万以上の実世界の眼球画像
- Authors: Wolfgang Fuhl and Gjergji Kasneci and Enkelejda Kasneci
- Abstract要約: TEyeDは、ヘッドマウントデバイスで撮影された世界最大のアイ画像集合である。
データセットには、2D&3Dランドマーク、セマンティックセグメンテーション、3Dアイボールアノテーション、全画像の視線ベクトルと眼球運動タイプが含まれている。
- 参考スコア(独自算出の注目度): 14.468541905210284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present TEyeD, the world's largest unified public data set of eye images
taken with head-mounted devices. TEyeD was acquired with seven different
head-mounted eye trackers. Among them, two eye trackers were integrated into
virtual reality (VR) or augmented reality (AR) devices. The images in TEyeD
were obtained from various tasks, including car rides, simulator rides, outdoor
sports activities, and daily indoor activities. The data set includes 2D\&3D
landmarks, semantic segmentation, 3D eyeball annotation and the gaze vector and
eye movement types for all images. Landmarks and semantic segmentation are
provided for the pupil, iris and eyelids. Video lengths vary from a few minutes
to several hours. With more than 20 million carefully annotated images, TEyeD
provides a unique, coherent resource and a valuable foundation for advancing
research in the field of computer vision, eye tracking and gaze estimation in
modern VR and AR applications. Data and code at
https://unitc-my.sharepoint.com/:f:/g/personal/iitfu01_cloud_uni-tuebingen_de/EvrNPdtigFVHtCMeFKSyLl UBepOcbX0nEkamweeZa0s9SQ?e=fWEvPp
- Abstract(参考訳): TEyeDは、ヘッドマウントデバイスで撮影された、世界最大のアイ画像集合である。
TEyeDは7つの異なるヘッドマウントアイトラッカーで買収された。
そのうち2つのアイトラッカーは、仮想現実(VR)または拡張現実(AR)デバイスに統合された。
TEyeDの画像は、カーライド、シミュレーターライド、アウトドアスポーツ活動、毎日の屋内活動など、さまざまなタスクから得られました。
データセットには、2D\&3Dランドマーク、セマンティックセグメンテーション、3Dアイボールアノテーション、全画像の視線ベクトルと眼球運動タイプが含まれている。
目印と意味的なセグメンテーションは、瞳孔、虹彩、まぶたに提供される。
ビデオの長さは数分から数時間まで様々である。
TEyeDは2000万以上の注意深い注釈付き画像とともに、ユニークなコヒーレントなリソースを提供し、現代のVRおよびARアプリケーションにおけるコンピュータビジョン、視線追跡、および視線推定の分野で研究を進めるための貴重な基盤を提供する。
data and code at https://unitc-my.sharepoint.com/:f:/g/personal/iitfu01_cloud_uni-tuebingen_de/evrnpdtigfvhtcmefksyll ubepocbx0nekamweeza0s9sq?e=fwevpp
関連論文リスト
- MMHead: Towards Fine-grained Multi-modal 3D Facial Animation [68.04052669266174]
大規模なマルチモーダル3次元顔アニメーションデータセットMMHeadを構築した。
MMHeadは、49時間の3D顔の動きシーケンス、音声、リッチな階層的なテキストアノテーションで構成されている。
MMHeadデータセットに基づいて,テキストによる3次元対話ヘッドアニメーションとテキストから3次元の顔の動き生成という,2つの新しいタスクのベンチマークを構築した。
論文 参考訳(メタデータ) (2024-10-10T09:37:01Z) - Lift3D: Zero-Shot Lifting of Any 2D Vision Model to 3D [95.14469865815768]
2Dビジョンモデルは、大規模な2D画像データセットによって実現されるセマンティックセグメンテーション、スタイル転送、シーン編集に使用できる。
しかし、シーン編集のような単一の2Dビジョン演算子を3Dに拡張するには、通常、そのタスクに特化した非常に創造的な方法が必要である。
本稿では,いくつかの視覚モデルによって生成された特徴空間の未知のビューを予測するためのLift3Dを提案する。
問題のあるタスクに特化した最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-03-27T18:13:16Z) - Aria Digital Twin: A New Benchmark Dataset for Egocentric 3D Machine
Perception [5.952224408665015]
Aria Digital Twin (ADT) は、Aria メガネを用いてキャプチャしたエゴセントリックなデータセットである。
ADTには、アリアの着用者が屋内の2つのシーンで行う200の実際の活動が含まれている。
論文 参考訳(メタデータ) (2023-06-10T06:46:32Z) - RenderMe-360: A Large Digital Asset Library and Benchmarks Towards
High-fidelity Head Avatars [157.82758221794452]
RenderMe-360は、頭部アバター研究の進歩を促進するための総合的な4次元人間の頭部データセットである。
そこには大量のデータ資産があり、合計で243万あまりのヘッドフレームと、500の異なるアイデンティティから8万件のビデオシーケンスがある。
データセットに基づいて、頭部アバター研究のための総合的なベンチマークを構築し、5つの主要なタスクで16の最先端の手法を実行した。
論文 参考訳(メタデータ) (2023-05-22T17:54:01Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Pistol: Pupil Invisible Supportive Tool to extract Pupil, Iris, Eye
Opening, Eye Movements, Pupil and Iris Gaze Vector, and 2D as well as 3D Gaze [12.314175125417098]
オフラインモードでは, 瞳孔, 虹彩楕円, 眼球開口, 瞳孔ベクトル, 虹彩ベクトル, 眼球運動型, 瞳孔速度, マーカー検出, マーカー距離, 瞳孔中心, 虹彩中心, 瞳孔ベクトル, 虹彩ベクトルなど, 眼球から複数の特徴を抽出する。
視線信号は、それぞれの目と各特徴に対して2Dで計算され、また、各特徴に対しても2Dで計算される。
論文 参考訳(メタデータ) (2022-01-18T07:54:55Z) - Recognizing Scenes from Novel Viewpoints [99.90914180489456]
人間は、少数の2Dビューから3Dのシーンを知覚することができる。AIエージェントは、少数の画像しか持たない任意の視点からシーンを認識することで、シーンとそのオブジェクトと効率的に対話することができる。
本稿では,新しいシーンのいくつかのRGB画像を入力として取り込んで,そのシーンを意味カテゴリーに分類することで,新たな視点から認識するモデルを提案する。
論文 参考訳(メタデータ) (2021-12-02T18:59:40Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras [3.485767750936058]
多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
論文 参考訳(メタデータ) (2021-07-19T13:24:21Z) - MagicEyes: A Large Scale Eye Gaze Estimation Dataset for Mixed Reality [8.025086113117291]
MagicEyesは、実際のMRデバイスを用いて収集された最初の大規模アイデータセットである。
我々はMagicEyesのいくつかの最先端手法を評価し、また、角膜、グリント、瞳孔を検出できる新しいマルチタスクEyeNetモデルと、1つの前方パスでのアイセグメンテーションを提案する。
論文 参考訳(メタデータ) (2020-03-18T08:23:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。