論文の概要: Egok360: A 360 Egocentric Kinetic Human Activity Video Dataset
- arxiv url: http://arxiv.org/abs/2010.08055v1
- Date: Thu, 15 Oct 2020 22:40:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:25:58.031852
- Title: Egok360: A 360 Egocentric Kinetic Human Activity Video Dataset
- Title(参考訳): Egok360:360度エゴセントリックな人間活動ビデオデータセット
- Authors: Keshav Bhandari, Mario A. DeLaGarza, Ziliang Zong, Hugo Latapie, Yan
Yan
- Abstract要約: 我々は新しい360度動画像データセット(EgoK360)を提案する。
EgoK360データセットには、異なるサブアクションを持つ人間のアクティビティのアノテーションが含まれている。
実験結果と2ストリームネットワークの変種を包括的に分析し,360度エゴセントリックな活動認識を実現する。
- 参考スコア(独自算出の注目度): 10.585194284134866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been a growing interest in wearable sensors which
provides new research perspectives for 360 {\deg} video analysis. However, the
lack of 360 {\deg} datasets in literature hinders the research in this field.
To bridge this gap, in this paper we propose a novel Egocentric (first-person)
360{\deg} Kinetic human activity video dataset (EgoK360). The EgoK360 dataset
contains annotations of human activity with different sub-actions, e.g.,
activity Ping-Pong with four sub-actions which are pickup-ball, hit,
bounce-ball and serve. To the best of our knowledge, EgoK360 is the first
dataset in the domain of first-person activity recognition with a 360{\deg}
environmental setup, which will facilitate the egocentric 360 {\deg} video
understanding. We provide experimental results and comprehensive analysis of
variants of the two-stream network for 360 egocentric activity recognition. The
EgoK360 dataset can be downloaded from https://egok360.github.io/.
- Abstract(参考訳): 近年,360度ビデオ解析のための新たな研究視点を提供するウェアラブルセンサへの関心が高まっている。
しかし、文学における360 {\deg}データセットの欠如は、この分野の研究を妨げる。
本稿では,このギャップを埋めるために,エゴセントリックな(一人称)360{\deg} Kinetic Human Activity Video data (EgoK360)を提案する。
EgoK360データセットには、例えば、ピックアップボール、ヒット、バウンスボール、サーブの4つのサブアクションを持つアクティビティPing-Pongのような、さまざまなサブアクションを持つ人間のアクティビティのアノテーションが含まれている。
私たちの知る限りでは、EgoK360は、360{\deg}環境設定によるファーストパーソンアクティビティ認識の領域における最初のデータセットであり、エゴセントリックな360 {\deg}ビデオ理解を促進する。
実験結果と2ストリームネットワークの変種を包括的に分析し,360度エゴセントリックな活動認識を実現する。
EgoK360データセットはhttps://egok360.github.io/からダウンロードできる。
関連論文リスト
- Ego3DT: Tracking Every 3D Object in Ego-centric Videos [20.96550148331019]
本稿では,エゴ中心映像からの物体の3次元再構成と追跡のための新しいゼロショット手法を提案する。
Ego3DTは,エゴ環境内のオブジェクトの検出とセグメンテーション情報を最初に識別し,抽出する新しいフレームワークである。
また,エゴ中心ビデオにおける物体の3次元追跡軌道を安定的に作成するための動的階層化機構を革新した。
論文 参考訳(メタデータ) (2024-10-11T05:02:31Z) - Unlocking Exocentric Video-Language Data for Egocentric Video Representation Learning [80.37314291927889]
EMBEDは、エゴセントリックなビデオ表現学習のための、エゴセントリックなビデオ言語データを変換するために設計された手法である。
エゴセントリックなビデオは、主にクローズアップなハンドオブジェクトのインタラクションを特徴としているのに対し、エゴセントリックなビデオは、人間の活動に対してより広い視点を提供する。
視覚と言語スタイルの転送の両方を適用することで、私たちのフレームワークは新しいエゴセントリックなデータセットを作成します。
論文 参考訳(メタデータ) (2024-08-07T06:10:45Z) - EgoPet: Egomotion and Interaction Data from an Animal's Perspective [82.7192364237065]
本稿では,同時行動とマルチエージェントインタラクションの多様な例を含む,ペットの情緒的イメージのデータセットを紹介する。
EgoPetは、既存の人間や車両のエゴセントリックなデータセットとは根本的に異なる視点を提供する。
動物行動を把握する2つのドメイン内ベンチマークタスクと、ロボット四足歩行のための事前学習リソースとしてEgoPetの有用性を評価するための第3のベンチマークを定義する。
論文 参考訳(メタデータ) (2024-04-15T17:59:47Z) - EgoGen: An Egocentric Synthetic Data Generator [53.32942235801499]
EgoGenは新しい合成データジェネレータで、エゴセントリックな知覚タスクのための正確でリッチな地上訓練データを生成することができる。
EgoGenの中心となるのは、仮想人間の自我中心の視覚入力を直接利用して3D環境を感知する、新しい人間のモーション合成モデルである。
我々は、ヘッドマウントカメラのマッピングとローカライゼーション、エゴセントリックカメラトラッキング、エゴセントリックビューからのヒューマンメッシュリカバリの3つのタスクで、EgoGenの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-16T18:55:22Z) - Ego-Exo4D: Understanding Skilled Human Activity from First- and Third-Person Perspectives [194.06650316685798]
Ego-Exo4Dは、熟練した人間の活動を同時に捉えたエゴセントリックでエゴセントリックなビデオを中心にしている。
世界の13都市から740人の参加者が123の異なる自然環境下でこれらの活動を行った。
ビデオにはマルチチャンネルオーディオ、視線、3Dポイントクラウド、カメラポーズ、IMU、複数対の言語記述が添付されている。
論文 参考訳(メタデータ) (2023-11-30T05:21:07Z) - 360VOT: A New Benchmark Dataset for Omnidirectional Visual Object
Tracking [10.87309734945868]
360deg画像は、安定かつ長期のシーン知覚にとって重要な全方位視野を提供することができる。
本稿では,視覚的物体追跡のための360度デグ画像について検討し,歪みによる新たな課題について考察する。
今後の研究を促進するため,新しい大規模全方位追跡ベンチマークである360VOTを提案する。
論文 参考訳(メタデータ) (2023-07-27T05:32:01Z) - Ego-Only: Egocentric Action Detection without Exocentric Transferring [37.89647493482049]
Ego-Onlyは,エゴセントリックな(ファーストパーソナリティー)ビデオに対して,最先端のアクション検出を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2023-01-03T22:22:34Z) - Egocentric Video-Language Pretraining [74.04740069230692]
Video-Language Pretrainingは、転送可能な表現を学習して、幅広いビデオテキストダウンストリームタスクを前進させることを目的としている。
我々は、最近リリースされたEgo4Dデータセットを利用して、3方向のEgoセントリックトレーニングを開拓しました。
3つのデータセットにわたる5つのエゴセントリックなダウンストリームタスクに対して、強いパフォーマンスを示します。
論文 参考訳(メタデータ) (2022-06-03T16:28:58Z) - Ego4D: Around the World in 3,000 Hours of Egocentric Video [276.1326075259486]
Ego4Dは大規模なビデオデータセットとベンチマークスイートである。
世界中の74か国と9か国から、855人のユニークなカメラ着用者が捉えた数百のシナリオを、毎日3,025時間の動画で見ることができる。
ビデオにはオーディオ、環境の3Dメッシュ、視線、ステレオ、および/または複数のエゴセントリックカメラからの同期ビデオが添付されている。
論文 参考訳(メタデータ) (2021-10-13T22:19:32Z) - SHD360: A Benchmark Dataset for Salient Human Detection in 360{\deg}
Videos [26.263614207849276]
実写シーンを収集する360度ビデオSHDデータセットSHD360を提案する。
SHD360には16,238の有能な人間の実例があり、手動で注釈付けされたピクセル単位の地上真実がある。
提案したデータセットとベンチマークは,360度パノラマデータに向けた人間中心の研究の出発点となる可能性がある。
論文 参考訳(メタデータ) (2021-05-24T23:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。