論文の概要: MMPD: Multi-Domain Mobile Video Physiology Dataset
- arxiv url: http://arxiv.org/abs/2302.03840v1
- Date: Wed, 8 Feb 2023 02:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 17:33:52.300564
- Title: MMPD: Multi-Domain Mobile Video Physiology Dataset
- Title(参考訳): MMPD:マルチドメインのモバイルビデオ生理学データセット
- Authors: Jiankai Tang, Kequan Chen, Yuntao Wang, Yuanchun Shi, Shwetak Patel,
Daniel McDuff, Xin Liu
- Abstract要約: 我々は,33人の被験者の携帯電話から11時間の録音を収録したマルチドメインモバイルビデオ物理データセットを提示する。
このデータセットは、肌のトーン、体の動き、照明条件など、より広い表現でビデオをキャプチャするように設計されている。
- 参考スコア(独自算出の注目度): 23.810333638829302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Remote photoplethysmography (rPPG) is an attractive method for noninvasive,
convenient and concomitant measurement of physiological vital signals. Public
benchmark datasets have served a valuable role in the development of this
technology and improvements in accuracy over recent years.However, there remain
gaps the public datasets.First, despite the ubiquity of cameras on mobile
devices, there are few datasets recorded specifically with mobile phones
cameras. Second, most datasets are relatively small and therefore are limited
in diversity, both in appearance (e.g., skin tone), behaviors (e.g., motion)
and enivornment (e.g., lighting conditions). In an effort to help the field
advance, we present the Multi-domain Mobile Video Physiology Dataset (MMPD),
comprising 11 hours of recordings from mobile phones of 33 subjects. The
dataset was designed to capture videos with greater representation across skin
tone, body motion, and lighting conditions. MMPD is comprehensive with eight
descriptive labels and can be used in conjunction with the rPPG-toolbox. The
Github repository of our dataset:
{https://github.com/McJackTang/MMPD_rPPG_dataset}
- Abstract(参考訳): remote photoplethysmography(rppg)は、非侵襲的、便利で、生理的バイタルシグナルの同時測定のための魅力的な方法である。
公開ベンチマークデータセットは,近年,この技術の開発や精度の向上において重要な役割を担ってきたが,第1に,携帯電話用カメラの普及にもかかわらず,携帯電話用カメラで特に記録されたデータセットは少ない。
第二に、ほとんどのデータセットは比較的小さいため、外観(例えば、肌の色)、行動(例えば、動き)、行動(例えば、照明条件)の両方において多様性に制限がある。
フィールドの前進を支援するために,33人の携帯電話から11時間の録音を含むMMPD(Multi-domain Mobile Video Physiology Dataset)を提示する。
このデータセットは、肌のトーン、体の動き、照明条件をまたいだ映像を撮影するために設計された。
MMPDは8つの記述ラベルと共に包括的であり、rPPG-toolboxと併用することができる。
データセットのGithubリポジトリ: {https://github.com/McJackTang/MMPD_rPPG_dataset}
関連論文リスト
- Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Aria-NeRF: Multimodal Egocentric View Synthesis [18.072255584212474]
ニューラルラジアンス場(NeRFs)にインスパイアされた可変体積線トレーシングに基づく、エゴセントリックなデータから訓練されたリッチでマルチモーダルなシーンモデルの開発における研究の加速を目指す。
このデータセットは、RGB画像、アイトラッキングカメラの映像、マイクからの音声記録、気圧計による気圧測定、GPSによる位置座標、デュアル周波数IMUデータセット(1kHzと800Hz)の情報を含む、総合的なセンサデータの収集を提供する。
このデータセットで捉えた多様なデータモダリティと現実世界のコンテキストは、人間の行動に対する理解を深め、より没入的でインテリジェントな体験を可能にするための堅牢な基盤となる。
論文 参考訳(メタデータ) (2023-11-11T01:56:35Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - MyDigitalFootprint: an extensive context dataset for pervasive computing
applications at the edge [7.310043452300736]
MyDigitalFootprintは、スマートフォンセンサーデータ、物理的な近接情報、オンラインソーシャルネットワークのインタラクションを含む大規模なデータセットである。
自然環境における31人のボランティアユーザーによる2ヶ月の計測で、制限なしの行動を可能にする。
データセットの有効性を示すために,各種機械学習タスクを利用したコンテキスト認識3つのアプリケーションを提案する。
論文 参考訳(メタデータ) (2023-06-28T07:59:47Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - SCAMPS: Synthetics for Camera Measurement of Physiological Signals [17.023803380199492]
SCAMPSは2,800本のビデオ (1.68Mフレーム) を含む合成物のデータセットである。
本研究は、心拍間隔、心拍変動、パルス到着時間など、基礎となる波形に関する記述統計を提供する。
論文 参考訳(メタデータ) (2022-06-08T23:48:41Z) - Unsupervised Person Re-Identification with Wireless Positioning under
Weak Scene Labeling [131.18390399368997]
本稿では、弱いシーンラベリングの下で、視覚データと無線位置決めトラジェクトリの両方を用いて、教師なしの人物再識別を探索することを提案する。
具体的には、視覚データと無線情報の相補性をモデル化した、新しい教師なしマルチモーダルトレーニングフレームワーク(UMTF)を提案する。
我々のUMTFには、MMDA(Multimodal Data Association Strategy)とMMGN(Multimodal Graph Neural Network)が含まれている。
論文 参考訳(メタデータ) (2021-10-29T08:25:44Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。