論文の概要: MMPD: Multi-Domain Mobile Video Physiology Dataset
- arxiv url: http://arxiv.org/abs/2302.03840v2
- Date: Mon, 1 May 2023 01:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 18:33:30.757452
- Title: MMPD: Multi-Domain Mobile Video Physiology Dataset
- Title(参考訳): MMPD:マルチドメインのモバイルビデオ生理学データセット
- Authors: Jiankai Tang, Kequan Chen, Yuntao Wang, Yuanchun Shi, Shwetak Patel,
Daniel McDuff, Xin Liu
- Abstract要約: データセットは、肌のトーン、体の動き、照明条件など、より広い表現でビデオをキャプチャするように設計されている。
データセットの信頼性は、主流の教師なしの方法とニューラルネットワークによって検証される。
- 参考スコア(独自算出の注目度): 23.810333638829302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Remote photoplethysmography (rPPG) is an attractive method for noninvasive,
convenient and concomitant measurement of physiological vital signals. Public
benchmark datasets have served a valuable role in the development of this
technology and improvements in accuracy over recent years.However, there remain
gaps in the public datasets.First, despite the ubiquity of cameras on mobile
devices, there are few datasets recorded specifically with mobile phone
cameras. Second, most datasets are relatively small and therefore are limited
in diversity, both in appearance (e.g., skin tone), behaviors (e.g., motion)
and environment (e.g., lighting conditions). In an effort to help the field
advance, we present the Multi-domain Mobile Video Physiology Dataset (MMPD),
comprising 11 hours of recordings from mobile phones of 33 subjects. The
dataset is designed to capture videos with greater representation across skin
tone, body motion, and lighting conditions. MMPD is comprehensive with eight
descriptive labels and can be used in conjunction with the rPPG-toolbox. The
reliability of the dataset is verified by mainstream unsupervised methods and
neural methods. The GitHub repository of our dataset:
https://github.com/THU-CS-PI/MMPD_rPPG_dataset.
- Abstract(参考訳): remote photoplethysmography(rppg)は、非侵襲的、便利で、生理的バイタルシグナルの同時測定のための魅力的な方法である。
公開ベンチマークデータセットは,近年,この技術の開発や精度の向上において重要な役割を担ってきたが,第1に,モバイルデバイス上のカメラの普及にもかかわらず,特に携帯電話カメラで記録されたデータセットは少ない。
第二に、ほとんどのデータセットは比較的小さいため、外観(例えば、肌の色)、行動(例えば、動き)、環境(例えば、照明条件)の両方において多様性に制限がある。
フィールドの前進を支援するために,33人の携帯電話から11時間の録音を含むMMPD(Multi-domain Mobile Video Physiology Dataset)を提示する。
データセットは、肌のトーン、体の動き、照明条件など、より広い表現でビデオをキャプチャするように設計されている。
MMPDは8つの記述ラベルと共に包括的であり、rPPG-toolboxと併用することができる。
データセットの信頼性は、主流の教師なし手法とニューラルネットワークによって検証される。
データセットのGitHubリポジトリ:https://github.com/THU-CS-PI/MMPD_rPPG_dataset。
関連論文リスト
- MHAD: Multimodal Home Activity Dataset with Multi-Angle Videos and Synchronized Physiological Signals [20.113892246512776]
ビデオに基づく生理学は、ビデオ記録の微妙な変化を分析して生理的信号を抽出する。
現在、受動的ホームモニタリング用に特別に設計されたデータセットは存在しない。
MHADデータセットは、40人の被験者から1,440本のビデオで構成され、実家環境の3つの角度から6つの典型的なアクティビティをキャプチャする。
論文 参考訳(メタデータ) (2024-09-14T08:42:39Z) - MSSPlace: Multi-Sensor Place Recognition with Visual and Text Semantics [41.94295877935867]
マルチカメラのセットアップを活用し,マルチモーダル位置認識のための多様なデータソースを統合することの影響について検討する。
提案手法は,複数のカメラ,LiDAR点雲,セマンティックセグメンテーションマスク,テキストアノテーションなどの画像を用いて,総合的な位置記述子を生成する。
論文 参考訳(メタデータ) (2024-07-22T14:24:56Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Convolutional Monge Mapping Normalization for learning on sleep data [63.22081662149488]
我々は、CMMN(Convolutional Monge Mapping Normalization)と呼ばれる新しい手法を提案する。
CMMNは、そのパワースペクトル密度(PSD)をトレーニングデータに基づいて推定されるワッサーシュタインバリセンタに適応させるために、信号をフィルタリングする。
睡眠脳波データに関する数値実験により、CMMNはニューラルネットワークアーキテクチャから独立して、顕著で一貫したパフォーマンス向上をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-30T08:24:01Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - SCAMPS: Synthetics for Camera Measurement of Physiological Signals [17.023803380199492]
SCAMPSは2,800本のビデオ (1.68Mフレーム) を含む合成物のデータセットである。
本研究は、心拍間隔、心拍変動、パルス到着時間など、基礎となる波形に関する記述統計を提供する。
論文 参考訳(メタデータ) (2022-06-08T23:48:41Z) - Unsupervised Person Re-Identification with Wireless Positioning under
Weak Scene Labeling [131.18390399368997]
本稿では、弱いシーンラベリングの下で、視覚データと無線位置決めトラジェクトリの両方を用いて、教師なしの人物再識別を探索することを提案する。
具体的には、視覚データと無線情報の相補性をモデル化した、新しい教師なしマルチモーダルトレーニングフレームワーク(UMTF)を提案する。
我々のUMTFには、MMDA(Multimodal Data Association Strategy)とMMGN(Multimodal Graph Neural Network)が含まれている。
論文 参考訳(メタデータ) (2021-10-29T08:25:44Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [62.265410865423]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。