論文の概要: EGO-CH: Dataset and Fundamental Tasks for Visitors
BehavioralUnderstanding using Egocentric Vision
- arxiv url: http://arxiv.org/abs/2002.00899v1
- Date: Mon, 3 Feb 2020 17:25:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:16:53.989779
- Title: EGO-CH: Dataset and Fundamental Tasks for Visitors
BehavioralUnderstanding using Egocentric Vision
- Title(参考訳): EGO-CH:エゴセントリックビジョンを用いた訪問行動のデータセットと基本課題
- Authors: Francesco Ragusa, Antonino Furnari, Sebastiano Battiato, Giovanni
Signorello, Giovanni Maria Farinella
- Abstract要約: EGO-CH(Egocentric-Cultural Heritage、エゴセントリック文化遺産)は、文化遺産におけるビジターの行動理解のためのエゴセントリックビデオの最初のデータセットである。
EGO-CHには、70ドル(約7万7000円)の被験者が購入した27ドル(約2万2000円)以上のビデオが含まれており、ラベルは26ドル(約2万2000円)。
60ドルのビデオからなるデータセットの大規模なサブセットは、実際のビジターによって満たされたサーベイに関連付けられている。
- 参考スコア(独自算出の注目度): 24.713448452485714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equipping visitors of a cultural site with a wearable device allows to easily
collect information about their preferences which can be exploited to improve
the fruition of cultural goods with augmented reality. Moreover, egocentric
video can be processed using computer vision and machine learning to enable an
automated analysis of visitors' behavior. The inferred information can be used
both online to assist the visitor and offline to support the manager of the
site. Despite the positive impact such technologies can have in cultural
heritage, the topic is currently understudied due to the limited number of
public datasets suitable to study the considered problems. To address this
issue, in this paper we propose EGOcentric-Cultural Heritage (EGO-CH), the
first dataset of egocentric videos for visitors' behavior understanding in
cultural sites. The dataset has been collected in two cultural sites and
includes more than $27$ hours of video acquired by $70$ subjects, with labels
for $26$ environments and over $200$ different Points of Interest. A large
subset of the dataset, consisting of $60$ videos, is associated with surveys
filled out by real visitors. To encourage research on the topic, we propose $4$
challenging tasks (room-based localization, point of interest/object
recognition, object retrieval and survey prediction) useful to understand
visitors' behavior and report baseline results on the dataset.
- Abstract(参考訳): ウェアラブルデバイスで文化施設の訪問者を乗せることで、その嗜好に関する情報を容易に収集し、拡張現実で文化品の作出を改善することができる。
さらに、エゴセントリックビデオはコンピュータビジョンと機械学習を使って処理でき、訪問者の行動を自動的に分析することができる。
推測された情報は、訪問者を支援するためにオンラインとサイトの管理者をサポートするオフラインの両方に使用できる。
このような技術が文化遺産にもたらすポジティブな影響にもかかわらず、この問題を研究するのに適した公開データセットが限られているため、現在その話題は未定である。
本稿では,文化遺産におけるビジターの行動理解のためのエゴセントリックビデオの最初のデータセットであるEGO-Cultural Heritage(EGO-CH)を提案する。
データセットは2つの文化サイトから収集され、70ドルの被験者によって27ドル以上のビデオが取得され、ラベルは26ドルの環境と200ドル以上の異なる関心ポイントで提供される。
60ドルのビデオからなるデータセットの大規模なサブセットは、実際のビジターによる調査に関連付けられている。
そこで本研究では,来訪者の行動を理解し,データセットのベースライン結果を報告するのに役立つ4ドルの課題(部屋ベースのローカライズ,興味/オブジェクト認識,オブジェクト検索,サーベイ予測)を提案する。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Unlocking Exocentric Video-Language Data for Egocentric Video Representation Learning [80.37314291927889]
EMBEDは、エゴセントリックなビデオ表現学習のための、エゴセントリックなビデオ言語データを変換するために設計された手法である。
エゴセントリックなビデオは、主にクローズアップなハンドオブジェクトのインタラクションを特徴としているのに対し、エゴセントリックなビデオは、人間の活動に対してより広い視点を提供する。
視覚と言語スタイルの転送の両方を適用することで、私たちのフレームワークは新しいエゴセントリックなデータセットを作成します。
論文 参考訳(メタデータ) (2024-08-07T06:10:45Z) - Video Question Answering for People with Visual Impairments Using an Egocentric 360-Degree Camera [2.427410108595295]
本稿では,視覚障害者が直面する日常的課題,例えば情報へのアクセス制限,ナビゲーションの困難,社会的相互作用への障壁について論じる。
これらの課題を軽減するために、我々は新しい視覚的質問応答データセットを導入する。
ビデオは360度エゴセントリックなウェアラブルカメラで撮影され、周囲全体を観察することができる。
論文 参考訳(メタデータ) (2024-05-30T08:02:05Z) - The Visual Experience Dataset: Over 200 Recorded Hours of Integrated Eye Movement, Odometry, and Egocentric Video [0.9644266648330361]
Visual Experienceデータセットは717のセッションで構成されており、6歳から49歳の58人の観察者が記録している。
VEDBの潜在的な応用には、ビデオトラッキング方法論の改善、画像統計の評価、シーンとアクティビティの認識のためのディープニューラルネットワークの精細化などがある。
論文 参考訳(メタデータ) (2024-02-15T10:34:28Z) - MECCANO: A Multimodal Egocentric Dataset for Humans Behavior
Understanding in the Industrial-like Domain [23.598727613908853]
本稿では,産業的な環境下での人間の行動理解を目的とした,エゴセントリックなビデオのデータセットMECCANOを提案する。
マルチモダリティの特徴は、視線信号、深度マップ、RGBビデオとカスタムヘッドセットが同時に取得される点である。
データセットは、人間の行動理解の文脈における基本的なタスクに対して、一人称視点から明示的にラベル付けされている。
論文 参考訳(メタデータ) (2022-09-19T00:52:42Z) - Occluded Video Instance Segmentation: Dataset and ICCV 2021 Challenge [133.80567761430584]
我々はOVISと呼ばれる大規模データセットを収集し、隠されたシナリオでビデオインスタンスのセグメンテーションを行う。
OVISは296kの高品質のインスタンスマスクと901の隠蔽シーンで構成されている。
全てのベースライン法は、強吸収対象群で約80%の性能低下に遭遇する。
論文 参考訳(メタデータ) (2021-11-15T17:59:03Z) - PEEK: A Large Dataset of Learner Engagement with Educational Videos [20.49299110732228]
我々は,教育ビデオに携わる学習者の大規模な新しいデータセットをリリースする。
このデータセットはPEEK(Personalized Educational Engagement with Knowledge Topics)と名付けられたもので、この性質について初めて公開されたデータセットである。
学習者のエンゲージメントの信号は、リッチなコンテンツ表現と一致して、強力なパーソナライズアルゴリズムを構築するための道を開くだろうと考えています。
論文 参考訳(メタデータ) (2021-09-03T11:23:02Z) - Do Datasets Have Politics? Disciplinary Values in Computer Vision
Dataset Development [6.182409582844314]
約500のコンピュータビジョンデータセットのコーパスを収集し、そこから異なるビジョンタスクで114のデータセットパブリッシュをサンプリングしました。
我々は、コンピュータビジョンデータセットの著者が、ケアを犠牲にして効率をどのように評価するか、コンテキストを犠牲にして普遍性、データ作業を犠牲にしてモデルワークをいかに評価するかについて議論する。
私たちは、沈黙された値をデータセットの生成とキュレーションプロセスにどのように組み込むか、という提案で締めくくります。
論文 参考訳(メタデータ) (2021-08-09T19:07:58Z) - An Ethical Highlighter for People-Centric Dataset Creation [62.886916477131486]
本稿では,既存のデータセットの倫理的評価を導くための分析フレームワークを提案する。
我々の研究は、先行研究のレビューと分析によって知らされ、そのような倫理的課題が生じる場所を強調します。
論文 参考訳(メタデータ) (2020-11-27T07:18:44Z) - Placepedia: Comprehensive Place Understanding with Multi-Faceted
Annotations [79.80036503792985]
Placepediaは、240万のユニークな場所から3500万枚以上の写真を集めた大規模な場所データセットです。
写真に加えて、各場所にはGDP、人口など、膨大な多面的な情報も付属している。
このデータセットは大量のデータと豊富なアノテーションを持ち、様々な研究を行うことができる。
論文 参考訳(メタデータ) (2020-07-07T20:17:01Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。