論文の概要: BON: An extended public domain dataset for human activity recognition
- arxiv url: http://arxiv.org/abs/2209.05077v1
- Date: Mon, 12 Sep 2022 08:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:56:52.093132
- Title: BON: An extended public domain dataset for human activity recognition
- Title(参考訳): BON:人間活動認識のための拡張パブリックドメインデータセット
- Authors: Girmaw Abebe Tadesse and Oliver Bent and Komminist Weldemariam and Md.
Abrar Istiak and Taufiq Hasan and Andrea Cavallaro
- Abstract要約: FPVカメラは、被験者の視点から、環境に関する情報の豊富な情報源を抽出することができる。
本稿では,3つの地理的な場所の異なるオフィス設定で収集した,大規模かつ一般公開されたオフィス活動データセット(BON)の詳細について述べる。
- 参考スコア(独自算出の注目度): 30.791568794261398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Body-worn first-person vision (FPV) camera enables to extract a rich source
of information on the environment from the subject's viewpoint. However, the
research progress in wearable camera-based egocentric office activity
understanding is slow compared to other activity environments (e.g., kitchen
and outdoor ambulatory), mainly due to the lack of adequate datasets to train
more sophisticated (e.g., deep learning) models for human activity recognition
in office environments. This paper provides details of a large and publicly
available office activity dataset (BON) collected in different office settings
across three geographical locations: Barcelona (Spain), Oxford (UK) and Nairobi
(Kenya), using a chest-mounted GoPro Hero camera. The BON dataset contains
eighteen common office activities that can be categorised into person-to-person
interactions (e.g., Chat with colleagues), person-to-object (e.g., Writing on a
whiteboard), and proprioceptive (e.g., Walking). Annotation is provided for
each segment of video with 5-seconds duration. Generally, BON contains 25
subjects and 2639 total segments. In order to facilitate further research in
the sub-domain, we have also provided results that could be used as baselines
for future studies.
- Abstract(参考訳): fpv(body-worn first-person vision)カメラは、対象者の視点から環境に関する情報の豊富なソースを抽出することができる。
しかし、ウェアラブルカメラを用いたオフィス活動理解の研究の進展は、オフィス環境における人間活動認識のためのより高度な(ディープラーニングなど)モデルをトレーニングするための十分なデータセットが欠如していることから、他の活動環境(キッチンや屋外避難室など)と比較して遅い。
本稿では,バルセロナ (spain), オックスフォード (uk), ナイロビ (kenya) の3か所において, 胸部に搭載されたgopro heroカメラを用いて, さまざまなオフィス設定で収集した大規模かつ一般公開されたoffice activity dataset (bon)の詳細について述べる。
BONデータセットには18の共通オフィスアクティビティが含まれており、人対人インタラクション(例えば、同僚とのチャット)、人対物(例えば、ホワイトボードに書き込む)、先天受容性(例えばウォーキング)に分類できる。
アノテーションは、ビデオの各セグメントに5秒の期間で提供される。
BONには25の被験者と2639のセグメントが含まれる。
サブドメインのさらなる研究を促進するために、将来の研究のベースラインとして使用できる結果も提供しました。
関連論文リスト
- Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild [66.34146236875822]
ニメリアデータセット(Nymeria dataset)は、複数のマルチモーダル・エゴセントリックなデバイスで野生で収集された、大規模で多様な、多彩な注釈付けされた人間のモーションデータセットである。
合計で399Kmを走行し、50か所にわたる264人の参加者から毎日300時間の録音を1200件記録している。
動作言語記述は、語彙サイズ6545の8.64万語で310.5K文を提供する。
論文 参考訳(メタデータ) (2024-06-14T10:23:53Z) - Reconstructing human activities via coupling mobile phone data with
location-based social networks [20.303827107229445]
本稿では,携帯電話データと位置情報ソーシャルネットワーク(LBSN)データを結合することで,ユーザの行動を特定するためのデータ分析フレームワークを提案する。
我々は,10万人の携帯電話利用者の行動連鎖を再構築し,各活動タイプの時間的・空間的特徴を分析した。
論文 参考訳(メタデータ) (2023-06-06T06:37:14Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - ViLPAct: A Benchmark for Compositional Generalization on Multimodal
Human Activities [68.93275430102118]
ViLPActは人間の活動計画のためのビジョン言語ベンチマークである。
データセットは、クラウドソーシングを通じて意図を持って拡張されたチャレードから2.9kのビデオで構成されている。
論文 参考訳(メタデータ) (2022-10-11T15:50:51Z) - MECCANO: A Multimodal Egocentric Dataset for Humans Behavior
Understanding in the Industrial-like Domain [23.598727613908853]
本稿では,産業的な環境下での人間の行動理解を目的とした,エゴセントリックなビデオのデータセットMECCANOを提案する。
マルチモダリティの特徴は、視線信号、深度マップ、RGBビデオとカスタムヘッドセットが同時に取得される点である。
データセットは、人間の行動理解の文脈における基本的なタスクに対して、一人称視点から明示的にラベル付けされている。
論文 参考訳(メタデータ) (2022-09-19T00:52:42Z) - Fine-grained Activities of People Worldwide [2.064612766965483]
Collectorはビデオを記録する無料のモバイルアプリで、同意された被験者のオブジェクトやアクティビティを同時にアノテートする。
CAPデータセットには、33カ国で780人の被験者が収集した、512の細粒度の活動ラベルの1.45Mのビデオクリップが含まれている。
論文 参考訳(メタデータ) (2022-07-11T20:38:10Z) - JRDB-Act: A Large-scale Multi-modal Dataset for Spatio-temporal Action,
Social Group and Activity Detection [54.696819174421584]
大学構内環境における生活行動の実際の分布を反映したマルチモーダルデータセットであるJRDB-Actを紹介する。
JRDB-Actには280万以上のアクションラベルがある。
JRDB-Actは、現場での対話に基づいて個人をグループ化するタスクに着想を得た社会集団識別アノテーションが付属している。
論文 参考訳(メタデータ) (2021-06-16T14:43:46Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。