論文の概要: ROSbag-based Multimodal Affective Dataset for Emotional and Cognitive
States
- arxiv url: http://arxiv.org/abs/2006.05102v2
- Date: Tue, 20 Oct 2020 15:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 04:56:27.083404
- Title: ROSbag-based Multimodal Affective Dataset for Emotional and Cognitive
States
- Title(参考訳): ROSbag-based Multimodal Affective Dataset for Emotional and Cognitive States
- Authors: Wonse Jo, Shyam Sundar Kannan, Go-Eum Cha, Ahreum Lee, and Byung-Cheol
Min
- Abstract要約: 本稿では,ロボット・オペレーティング・システム(ROS)を用いた感情・認知状態に対するROSbagベースのマルチモーダル感情データセットを提案する。
我々は、IAPS(International Affective Pictures System)とIADS(International Affective Digitized Sounds)のイメージと音を用いて、ターゲットの感情を刺激した。
生成された感情データセットは1,602のROSbagファイルで構成され、データセットのサイズは約787GBである。
- 参考スコア(独自算出の注目度): 0.9786690381850356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a new ROSbag-based multimodal affective dataset for
emotional and cognitive states generated using Robot Operating System (ROS). We
utilized images and sounds from the International Affective Pictures System
(IAPS) and the International Affective Digitized Sounds (IADS) to stimulate
targeted emotions (happiness, sadness, anger, fear, surprise, disgust, and
neutral), and a dual N-back game to stimulate different levels of cognitive
workload. 30 human subjects participated in the user study; their physiological
data was collected using the latest commercial wearable sensors, behavioral
data was collected using hardware devices such as cameras, and subjective
assessments were carried out through questionnaires. All data was stored in
single ROSbag files rather than in conventional Comma-separated values (CSV)
files. This not only ensures synchronization of signals and videos in a data
set, but also allows researchers to easily analyze and verify their algorithms
by connecting directly to this dataset through ROS. The generated affective
dataset consists of 1,602 ROSbag files, and size of the dataset is about 787GB.
The dataset is made publicly available. We expect that our dataset can be great
resource for many researchers in the fields of affective computing, HCI, and
HRI.
- Abstract(参考訳): 本稿では,ロボット・オペレーティング・システム(ROS)を用いた感情・認知状態に対するマルチモーダル感情データセットを提案する。
我々は、IAPS(International Affective Pictures System)とIADS(International Affective Digitized Sounds)のイメージと音を利用して、ターゲットの感情(幸福、悲しみ、怒り、恐怖、驚き、嫌悪、中立)を刺激し、また認知負荷のレベルを刺激するために2つのNバックゲームを利用した。
30名の被験者がユーザスタディに参加し, 最新の市販ウェアラブルセンサを用いて生理データを収集し, カメラなどのハードウェアデバイスを用いて行動データを収集し, アンケートにより主観評価を行った。
すべてのデータは従来のComma分離値(CSV)ファイルではなく、単一のROSbagファイルに格納された。
これにより、データセット内の信号やビデオの同期が保証されるだけでなく、研究者はrosを通じてこのデータセットに直接接続することで、アルゴリズムの分析と検証が容易になる。
生成された感情データセットは1,602のROSbagファイルで構成され、データセットのサイズは約787GBである。
データセットは公開されています。
当社のデータセットは,感情コンピューティングやhci,hriといった分野の研究者の多くにとって,優れたリソースとなることを期待しています。
関連論文リスト
- CoPeD-Advancing Multi-Robot Collaborative Perception: A Comprehensive Dataset in Real-World Environments [8.177157078744571]
本稿では,先駆的で包括的な実世界のマルチロボット協調認識データセットを提案する。
生のセンサー入力、ポーズ推定、オプションのハイレベル認識アノテーションが特徴である。
この研究は、マルチロボット設定におけるマルチモーダル協調認識を通して、ハイレベルなシーン理解の潜在的研究を解き放つだろうと考えている。
論文 参考訳(メタデータ) (2024-05-23T15:59:48Z) - SER_AMPEL: a multi-source dataset for speech emotion recognition of
Italian older adults [58.49386651361823]
SER_AMPELは、音声感情認識のためのマルチソースデータセットである。
イタリア人の高齢者の場合、音声による感情認識の基準を提供する目的で収集される。
このようなデータセットの必要性の証拠は、技術の現状の分析から生まれる。
論文 参考訳(メタデータ) (2023-11-24T13:47:25Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Towards Multi-User Activity Recognition through Facilitated Training
Data and Deep Learning for Human-Robot Collaboration Applications [2.3274633659223545]
本研究では、シングルユーザに関するデータを収集し、後処理でそれらをマージすることで、マルチユーザアクティビティに関するデータを集める方法を提案する。
同じ設定で記録されたユーザのグループに関するトレーニングデータを使用する場合と比較して、この方法で収集されたデータをHRC設定のペアに使用し、同様のパフォーマンスを得ることができる。
論文 参考訳(メタデータ) (2023-02-11T19:27:07Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Egocentric Human-Object Interaction Detection Exploiting Synthetic Data [19.220651860718892]
産業的文脈において,エゴセントリックなヒューマンオブジェクトインタラクション(EHOI)を検出することの問題点を考察する。
EHOI検出に自動的にラベル付けされたFPV画像を生成するためのパイプラインとツールを提案する。
論文 参考訳(メタデータ) (2022-04-14T15:59:15Z) - Stereoscopic Universal Perturbations across Different Architectures and
Datasets [60.021985610201156]
本研究では,画像の逆摂動が不均一性推定タスクの深部ステレオマッチングネットワークに与える影響について検討する。
本稿では,データセット内の任意のステレオ画像対に追加されると,ステレオネットワークを騙すことのできる,単一の摂動セットを構築する方法を提案する。
我々の摂動は、最先端のステレオネットワークのD1エラーを1%から87%に増やすことができる。
論文 参考訳(メタデータ) (2021-12-12T02:11:31Z) - Finding Facial Forgery Artifacts with Parts-Based Detectors [73.08584805913813]
顔の個々の部分に焦点を絞った一連の偽造検知システムを設計する。
これらの検出器を用いて、FaceForensics++、Celeb-DF、Facebook Deepfake Detection Challengeデータセットの詳細な実験分析を行う。
論文 参考訳(メタデータ) (2021-09-21T16:18:45Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Analyzing the Influence of Dataset Composition for Emotion Recognition [0.0]
我々は2つのマルチモーダル感情認識データセットにおける影響データ収集手法の分析を行った。
完全なIEMOCAPデータセットを用いた実験は、構成がOMG-Emotion Behaviorデータセットと比較して一般化性能に悪影響を及ぼすことを示している。
論文 参考訳(メタデータ) (2021-03-05T14:20:59Z) - A Common Operating Picture Framework Leveraging Data Fusion and Deep
Learning [0.7348448478819135]
本稿では,処理,爆発,拡散のソリューションを高速化するためのデータ融合フレームワークを提案する。
私たちのプラットフォームは、ディープラーニングやその他の処理手段を活用することで、複数のデータソースから情報を抽出するサービスの集合体です。
最初のイテレーションでは、ビジュアルデータ(FMV, WAMI, CCTV/PTZ-Cameras, オープンソースビデオなど)とAISデータストリーム(衛星と地上ソース)に焦点を当てました。
論文 参考訳(メタデータ) (2020-01-16T18:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。