論文の概要: ConfLab: A Rich Multimodal Multisensor Dataset of Free-Standing Social
Interactions In-the-Wild
- arxiv url: http://arxiv.org/abs/2205.05177v1
- Date: Tue, 10 May 2022 21:30:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 11:23:52.805919
- Title: ConfLab: A Rich Multimodal Multisensor Dataset of Free-Standing Social
Interactions In-the-Wild
- Title(参考訳): conflab: 自由参加型ソーシャルインタラクションのためのリッチなマルチモーダルマルチセンサーデータセット
- Authors: Chirag Raman, Jose Vargas-Quiros, Stephanie Tan, Ekin Gedik, Ashraful
Islam, Hayley Hung
- Abstract要約: 本稿では,マルチモーダル・マルチセンサ・データ収集のための新たな概念の創発について述べる。
ConfLabには、実生活のプロフェッショナルネットワーキングイベントにおいて49人の忠実度の高いデータが含まれている。
- 参考スコア(独自算出の注目度): 10.686716372324096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe an instantiation of a new concept for multimodal multisensor data
collection of real life in-the-wild free standing social interactions in the
form of a Conference Living Lab (ConfLab). ConfLab contains high fidelity data
of 49 people during a real-life professional networking event capturing a
diverse mix of status, acquaintanceship, and networking motivations at an
international conference. Recording such a dataset is challenging due to the
delicate trade-off between participant privacy and fidelity of the data, and
the technical and logistic challenges involved. We improve upon prior datasets
in the fidelity of most of our modalities: 8-camera overhead setup, personal
wearable sensors recording body motion (9-axis IMU), Bluetooth-based proximity,
and low-frequency audio. Additionally, we use a state-of-the-art hardware
synchronization solution and time-efficient continuous technique for annotating
body keypoints and actions at high frequencies. We argue that our improvements
are essential for a deeper study of interaction dynamics at finer time scales.
Our research tasks showcase some of the open challenges related to in-the-wild
privacy-preserving social data analysis: keypoints detection from overhead
camera views, skeleton based no-audio speaker detection, and F-formation
detection. With the ConfLab dataset, we aim to bridge the gap between
traditional computer vision tasks and in-the-wild ecologically valid
socially-motivated tasks.
- Abstract(参考訳): コンファレンス・リビング・ラボ(ConfLab)の形で,マルチモーダル・マルチセンサ・データ収集のための新たな概念の創出について述べる。
ConfLabには、国際会議でのさまざまなステータス、知り合い、ネットワークモチベーションを捉えた、49人の忠実度の高いデータが含まれている。
このようなデータセットの記録は、参加者のプライバシーとデータの忠実性の間の微妙なトレードオフと、関連する技術的およびロジスティックな課題のために難しい。
8カメラのオーバーヘッド設定、体の動きを記録する個人用ウェアラブルセンサー(9軸IMU)、Bluetoothベースの近接、低周波オーディオなどです。
さらに,身体のキーポイントや動作を高頻度でアノテートするために,最先端のハードウェア同期ソリューションと時間効率の連続手法を用いる。
我々は、我々の改善はより細かい時間スケールでの相互作用ダイナミクスのより深い研究に不可欠であると主張している。
当社の研究タスクでは,プライバシ保護型ソーシャルデータ分析に関するオープン課題として,オーバーヘッドカメラからのキーポイント検出,スケルトンベース非オーディオ話者検出,fフォーメーション検出などが紹介されている。
ConfLabデータセットでは、従来のコンピュータビジョンタスクと、社会的に動機づけられたタスクの幅を埋めることを目的としています。
関連論文リスト
- Reconstructing Close Human Interactions from Multiple Views [38.924950289788804]
本稿では,複数のキャリブレーションカメラで捉えた密接なインタラクションを行う複数の個人のポーズを再構築する上での課題について述べる。
これらの課題に対処する新しいシステムを導入する。
本システムは,学習に基づくポーズ推定コンポーネントと,それに対応するトレーニングと推論戦略を統合する。
論文 参考訳(メタデータ) (2024-01-29T14:08:02Z) - NOTSOFAR-1 Challenge: New Datasets, Baseline, and Tasks for Distant
Meeting Transcription [21.236634241186458]
本研究では,Natural Office Talkers in Settings of Far-field Audio Recordings (NOTSOFAR-1'') Challenge with datasets and baseline system。
この課題は遠距離話者ダイアリゼーションと遠隔会議シナリオにおける自動音声認識(DASR)に焦点を当てる。
論文 参考訳(メタデータ) (2024-01-16T23:50:26Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Two-stream Multi-level Dynamic Point Transformer for Two-person
Interaction Recognition [65.87203087716263]
本稿では,2人インタラクション認識のための2ストリームマルチレベル動的ポイント変換器を提案する。
本モデルでは,局所空間情報,外観情報,動作情報を組み込むことで,対人インタラクションを認識するという課題に対処する。
我々のネットワークは、すべての標準評価設定において最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-22T03:51:32Z) - Contactless Human Activity Recognition using Deep Learning with Flexible
and Scalable Software Define Radio [1.3106429146573144]
本研究では,環境センシングの新たな手法として,Wi-Fiチャネル状態情報(CSI)の利用について検討する。
これらの方法は、プライバシーを侵害する視覚ベースのシステムに必要な追加のハードウェアを避ける。
本研究では,Wi-Fi CSIベースのHARシステムを提案する。
論文 参考訳(メタデータ) (2023-04-18T10:20:14Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - Audio-Visual Fusion Layers for Event Type Aware Video Recognition [86.22811405685681]
マルチタスク学習方式において,個別のイベント固有のレイヤによるマルチセンサ統合問題に対処する新しいモデルを提案する。
我々のネットワークは単一のラベルで表現されているが、与えられたビデオを表現するために、さらに真のマルチラベルを出力できる。
論文 参考訳(メタデータ) (2022-02-12T02:56:22Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。