論文の概要: Fine-grained Activities of People Worldwide
- arxiv url: http://arxiv.org/abs/2207.05182v1
- Date: Mon, 11 Jul 2022 20:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 13:54:51.708297
- Title: Fine-grained Activities of People Worldwide
- Title(参考訳): 世界の人々のきめ細かい活動
- Authors: Jeffrey Byrne, Greg Castanon, Zhongheng Li, Gil Ettinger
- Abstract要約: Collectorはビデオを記録する無料のモバイルアプリで、同意された被験者のオブジェクトやアクティビティを同時にアノテートする。
CAPデータセットには、33カ国で780人の被験者が収集した、512の細粒度の活動ラベルの1.45Mのビデオクリップが含まれている。
- 参考スコア(独自算出の注目度): 2.064612766965483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Every day, humans perform many closely related activities that involve subtle
discriminative motions, such as putting on a shirt vs. putting on a jacket, or
shaking hands vs. giving a high five. Activity recognition by ethical visual AI
could provide insights into our patterns of daily life, however existing
activity recognition datasets do not capture the massive diversity of these
human activities around the world. To address this limitation, we introduce
Collector, a free mobile app to record video while simultaneously annotating
objects and activities of consented subjects. This new data collection platform
was used to curate the Consented Activities of People (CAP) dataset, the first
large-scale, fine-grained activity dataset of people worldwide. The CAP dataset
contains 1.45M video clips of 512 fine grained activity labels of daily life,
collected by 780 subjects in 33 countries. We provide activity classification
and activity detection benchmarks for this dataset, and analyze baseline
results to gain insight into how people around with world perform common
activities. The dataset, benchmarks, evaluation tools, public leaderboards and
mobile apps are available for use at visym.github.io/cap.
- Abstract(参考訳): 人間は毎日、シャツを着るか、ジャケットを着るか、手を振るか、ハイファイブを与えるかなど、微妙な差別的な動きを伴う多くの密接に関連した活動を行う。
倫理的視覚AIによる行動認識は、私たちの日常生活のパターンに関する洞察を与える可能性があるが、既存の活動認識データセットは、世界中の人間の活動の膨大な多様性を捉えていない。
この制限に対処するため,合意された被験者のオブジェクトやアクティビティを同時にアノテートしながらビデオを記録する無料モバイルアプリであるCollectorを紹介した。
この新しいデータ収集プラットフォームは、世界中の人々の最初の大規模できめ細かいアクティビティデータセットであるCAP(Consented Activity of People)データセットのキュレーションに使用された。
capデータセットには、33カ国の780人の被験者が収集した512の細粒度アクティビティラベルの1.45mビデオクリップが含まれている。
このデータセットにアクティビティ分類とアクティビティ検出ベンチマークを提供し、そのベースライン結果を分析して、世界中の人々が共通の活動を行う方法に関する洞察を得る。
データセット、ベンチマーク、評価ツール、公開リーダボード、モバイルアプリは、visym.github.io/capで利用できる。
関連論文リスト
- Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild [66.34146236875822]
ニメリアデータセット(Nymeria dataset)は、複数のマルチモーダル・エゴセントリックなデバイスで野生で収集された、大規模で多様な、多彩な注釈付けされた人間のモーションデータセットである。
合計で399Kmを走行し、50か所にわたる264人の参加者から毎日300時間の録音を1200件記録している。
動作言語記述は、語彙サイズ6545の8.64万語で310.5K文を提供する。
論文 参考訳(メタデータ) (2024-06-14T10:23:53Z) - Unsupervised Embedding Learning for Human Activity Recognition Using
Wearable Sensor Data [2.398608007786179]
我々は,人間の活動が密接な位置にある埋め込み空間に投影する,教師なしの手法を提案する。
3つのラベル付きベンチマークデータセットの実験結果は、フレームワークの有効性を示している。
論文 参考訳(メタデータ) (2023-07-21T08:52:47Z) - WEAR: An Outdoor Sports Dataset for Wearable and Egocentric Activity Recognition [22.988658969594276]
視覚と慣性に基づく人間活動認識(HAR)のための屋外スポーツデータセットWEARを紹介する。
合計18種類のワークアウト活動を行う22人の被験者のデータを,11箇所の外部で記録した同期慣性(アクセラレーション)とカメラ(エゴセントリックビデオ)データを用いて収集した。
ベンチマークの結果,センサ配置により,各モードが予測性能に相補的な強度と弱点を与えることがわかった。
論文 参考訳(メタデータ) (2023-04-11T09:31:07Z) - FLAG3D: A 3D Fitness Activity Dataset with Language Instruction [89.60371681477791]
FLAG3Dは,60カテゴリの180Kシーケンスを含む言語命令付き大規模3Dフィットネスアクティビティデータセットである。
FLAG3Dは、クロスドメインなヒューマンアクション認識、動的ヒューマンメッシュリカバリ、言語誘導型ヒューマンアクション生成など、さまざまな課題に対して大きな研究価値を提供する。
論文 参考訳(メタデータ) (2022-12-09T02:33:33Z) - BON: An extended public domain dataset for human activity recognition [30.791568794261398]
FPVカメラは、被験者の視点から、環境に関する情報の豊富な情報源を抽出することができる。
本稿では,3つの地理的な場所の異なるオフィス設定で収集した,大規模かつ一般公開されたオフィス活動データセット(BON)の詳細について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:28:26Z) - Domain Adaptation Under Behavioral and Temporal Shifts for Natural Time
Series Mobile Activity Recognition [31.43183992755392]
既存のデータセットは典型的にはスクリプト化された動きで構成されている。
我々の長期的な目標は、自然環境下でのモバイル活動認識を行うことです。
ヒトの行動に大きな変化があるため、2つの異なる年齢グループから多くの参加者からデータを収集します。
論文 参考訳(メタデータ) (2022-07-10T02:48:34Z) - JRDB-Act: A Large-scale Multi-modal Dataset for Spatio-temporal Action,
Social Group and Activity Detection [54.696819174421584]
大学構内環境における生活行動の実際の分布を反映したマルチモーダルデータセットであるJRDB-Actを紹介する。
JRDB-Actには280万以上のアクションラベルがある。
JRDB-Actは、現場での対話に基づいて個人をグループ化するタスクに着想を得た社会集団識別アノテーションが付属している。
論文 参考訳(メタデータ) (2021-06-16T14:43:46Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。