論文の概要: ConfLab: A Rich Multimodal Multisensor Dataset of Free-Standing Social
Interactions In-the-Wild
- arxiv url: http://arxiv.org/abs/2205.05177v1
- Date: Tue, 10 May 2022 21:30:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 11:23:52.805919
- Title: ConfLab: A Rich Multimodal Multisensor Dataset of Free-Standing Social
Interactions In-the-Wild
- Title(参考訳): conflab: 自由参加型ソーシャルインタラクションのためのリッチなマルチモーダルマルチセンサーデータセット
- Authors: Chirag Raman, Jose Vargas-Quiros, Stephanie Tan, Ekin Gedik, Ashraful
Islam, Hayley Hung
- Abstract要約: 本稿では,マルチモーダル・マルチセンサ・データ収集のための新たな概念の創発について述べる。
ConfLabには、実生活のプロフェッショナルネットワーキングイベントにおいて49人の忠実度の高いデータが含まれている。
- 参考スコア(独自算出の注目度): 10.686716372324096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe an instantiation of a new concept for multimodal multisensor data
collection of real life in-the-wild free standing social interactions in the
form of a Conference Living Lab (ConfLab). ConfLab contains high fidelity data
of 49 people during a real-life professional networking event capturing a
diverse mix of status, acquaintanceship, and networking motivations at an
international conference. Recording such a dataset is challenging due to the
delicate trade-off between participant privacy and fidelity of the data, and
the technical and logistic challenges involved. We improve upon prior datasets
in the fidelity of most of our modalities: 8-camera overhead setup, personal
wearable sensors recording body motion (9-axis IMU), Bluetooth-based proximity,
and low-frequency audio. Additionally, we use a state-of-the-art hardware
synchronization solution and time-efficient continuous technique for annotating
body keypoints and actions at high frequencies. We argue that our improvements
are essential for a deeper study of interaction dynamics at finer time scales.
Our research tasks showcase some of the open challenges related to in-the-wild
privacy-preserving social data analysis: keypoints detection from overhead
camera views, skeleton based no-audio speaker detection, and F-formation
detection. With the ConfLab dataset, we aim to bridge the gap between
traditional computer vision tasks and in-the-wild ecologically valid
socially-motivated tasks.
- Abstract(参考訳): コンファレンス・リビング・ラボ(ConfLab)の形で,マルチモーダル・マルチセンサ・データ収集のための新たな概念の創出について述べる。
ConfLabには、国際会議でのさまざまなステータス、知り合い、ネットワークモチベーションを捉えた、49人の忠実度の高いデータが含まれている。
このようなデータセットの記録は、参加者のプライバシーとデータの忠実性の間の微妙なトレードオフと、関連する技術的およびロジスティックな課題のために難しい。
8カメラのオーバーヘッド設定、体の動きを記録する個人用ウェアラブルセンサー(9軸IMU)、Bluetoothベースの近接、低周波オーディオなどです。
さらに,身体のキーポイントや動作を高頻度でアノテートするために,最先端のハードウェア同期ソリューションと時間効率の連続手法を用いる。
我々は、我々の改善はより細かい時間スケールでの相互作用ダイナミクスのより深い研究に不可欠であると主張している。
当社の研究タスクでは,プライバシ保護型ソーシャルデータ分析に関するオープン課題として,オーバーヘッドカメラからのキーポイント検出,スケルトンベース非オーディオ話者検出,fフォーメーション検出などが紹介されている。
ConfLabデータセットでは、従来のコンピュータビジョンタスクと、社会的に動機づけられたタスクの幅を埋めることを目的としています。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - CoPeD-Advancing Multi-Robot Collaborative Perception: A Comprehensive Dataset in Real-World Environments [8.177157078744571]
本稿では,先駆的で包括的な実世界のマルチロボット協調認識データセットを提案する。
生のセンサー入力、ポーズ推定、オプションのハイレベル認識アノテーションが特徴である。
この研究は、マルチロボット設定におけるマルチモーダル協調認識を通して、ハイレベルなシーン理解の潜在的研究を解き放つだろうと考えている。
論文 参考訳(メタデータ) (2024-05-23T15:59:48Z) - Double Mixture: Towards Continual Event Detection from Speech [60.33088725100812]
音声イベント検出は、セマンティックイベントと音響イベントの両方のタグ付けを含むマルチメディア検索に不可欠である。
本稿では, 音声イベント検出における主な課題として, 過去の出来事を忘れることなく新たな事象を連続的に統合すること, 音響イベントからの意味のゆがみについて述べる。
本稿では,適応性を向上し,忘れることを防止するために,音声の専門知識と堅牢な記憶機構を融合する新しい手法「ダブルミキチャー」を提案する。
論文 参考訳(メタデータ) (2024-04-20T06:32:00Z) - NOTSOFAR-1 Challenge: New Datasets, Baseline, and Tasks for Distant
Meeting Transcription [21.236634241186458]
本研究では,Natural Office Talkers in Settings of Far-field Audio Recordings (NOTSOFAR-1'') Challenge with datasets and baseline system。
この課題は遠距離話者ダイアリゼーションと遠隔会議シナリオにおける自動音声認識(DASR)に焦点を当てる。
論文 参考訳(メタデータ) (2024-01-16T23:50:26Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Two-stream Multi-level Dynamic Point Transformer for Two-person Interaction Recognition [45.0131792009999]
本稿では,2人インタラクション認識のための2ストリームマルチレベル動的ポイント変換器を提案する。
本モデルでは,局所空間情報,外観情報,動作情報を組み込むことで,対人インタラクションを認識するという課題に対処する。
我々のネットワークは、ほとんどの標準的な評価設定において最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-22T03:51:32Z) - Contactless Human Activity Recognition using Deep Learning with Flexible
and Scalable Software Define Radio [1.3106429146573144]
本研究では,環境センシングの新たな手法として,Wi-Fiチャネル状態情報(CSI)の利用について検討する。
これらの方法は、プライバシーを侵害する視覚ベースのシステムに必要な追加のハードウェアを避ける。
本研究では,Wi-Fi CSIベースのHARシステムを提案する。
論文 参考訳(メタデータ) (2023-04-18T10:20:14Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。