論文の概要: Training Robust Deep Physiological Measurement Models with Synthetic
Video-based Data
- arxiv url: http://arxiv.org/abs/2311.05371v1
- Date: Thu, 9 Nov 2023 13:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 15:18:26.143435
- Title: Training Robust Deep Physiological Measurement Models with Synthetic
Video-based Data
- Title(参考訳): 合成ビデオデータを用いたロバスト深部生理計測モデルの訓練
- Authors: Yuxuan Ou, Yuzhe Zhang, Yuntang Wang, Shwetak Patel, Daniel McDuf, Xin
Liu
- Abstract要約: 合成生理的信号とそれに対応する顔画像に現実の雑音を加える方法を提案する。
その結果,MAEの平均値は6.9から2.0に減少した。
- 参考スコア(独自算出の注目度): 3.832537018628697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in supervised deep learning techniques have demonstrated the
possibility to remotely measure human physiological vital signs (e.g.,
photoplethysmograph, heart rate) just from facial videos. However, the
performance of these methods heavily relies on the availability and diversity
of real labeled data. Yet, collecting large-scale real-world data with
high-quality labels is typically challenging and resource intensive, which also
raises privacy concerns when storing personal bio-metric data. Synthetic
video-based datasets (e.g., SCAMPS~\cite{mcduff2022scamps}) with
photo-realistic synthesized avatars are introduced to alleviate the issues
while providing high-quality synthetic data. However, there exists a
significant gap between synthetic and real-world data, which hinders the
generalization of neural models trained on these synthetic datasets. In this
paper, we proposed several measures to add real-world noise to synthetic
physiological signals and corresponding facial videos. We experimented with
individual and combined augmentation methods and evaluated our framework on
three public real-world datasets. Our results show that we were able to reduce
the average MAE from 6.9 to 2.0.
- Abstract(参考訳): 近年の深層学習技術の進歩により、顔の映像のみから人間の生理的バイタルサイン(例えば、フォトプレチモグラフ、心拍数)を遠隔で測定できる可能性が証明されている。
しかし、これらの手法の性能は、実際のラベル付きデータの可用性と多様性に大きく依存している。
しかし、高品質なラベルで現実世界の大規模なデータを集めることは、通常困難でリソース集約的であり、パーソナルなバイオメトリックデータを保存する際のプライバシーの懸念も高まる。
合成ビデオベースのデータセット(SCAMPS~\cite{mcduff2022scamps} など)と写真リアルな合成アバターを導入し、高品質な合成データを提供しながら問題を緩和する。
しかし、合成データと現実世界データの間には大きなギャップがあり、これらの合成データセットで訓練された神経モデルの一般化を妨げる。
本稿では,合成生理信号と対応する顔映像に実世界のノイズを加える手法をいくつか提案する。
個別および複合的な拡張手法を実験し、3つの公開現実世界データセット上でフレームワークを評価した。
その結果,MAEの平均値は6.9から2.0に減少した。
関連論文リスト
- SynFER: Towards Boosting Facial Expression Recognition with Synthetic Data [44.304022773272415]
ハイレベルなテキスト記述に基づく表情画像データの合成のための新しいフレームワークであるSynFERを紹介する。
本稿では,表情ラベルの修正を支援するために,生成プロセスと擬似ラベル生成手法を提案する。
提案手法は,AffectNetトレーニングセットサイズに相当する合成データのみを用いてトレーニングを行う場合,AffectNetの67.23%の分類精度を実現する。
論文 参考訳(メタデータ) (2024-10-13T14:58:21Z) - Towards Synthetic Data Generation for Improved Pain Recognition in Videos under Patient Constraints [11.515273901289472]
本研究では、合成データを活用して、ビデオに基づく痛み認識モデルを強化する新しいアプローチを提案する。
本稿では,小さな参加者プールからニュアンスな顔の動きを捉え,リアルな3次元顔モデルを合成するパイプラインを提案する。
このプロセスは8,600個の合成顔を生成し、様々な角度と視点から本物の痛み表現を正確に反映する。
論文 参考訳(メタデータ) (2024-09-24T18:33:57Z) - Synthetic Image Learning: Preserving Performance and Preventing Membership Inference Attacks [5.0243930429558885]
本稿では,下流分類器の学習のための合成データの生成と利用を最適化するパイプラインである知識リサイクル(KR)を紹介する。
このパイプラインの核心は生成的知識蒸留(GKD)であり、情報の品質と有用性を大幅に向上させる技術が提案されている。
その結果、実データと合成データでトレーニングされたモデルと、実データでトレーニングされたモデルとの性能差が著しく低下した。
論文 参考訳(メタデータ) (2024-07-22T10:31:07Z) - Real Risks of Fake Data: Synthetic Data, Diversity-Washing and Consent Circumvention [0.8192907805418583]
モデル開発において合成データを使用することの2つの重要なリスクを提示する。
まず、データセットの多様性と表現性を高めるために合成データを使用する場合、誤信のリスクが高いことを詳述する。
第2に、データ使用に対する同意を回避するための合成データリスクの使用方法を検討する。
論文 参考訳(メタデータ) (2024-05-03T02:47:44Z) - Best Practices and Lessons Learned on Synthetic Data [83.63271573197026]
AIモデルの成功は、大規模で多様な、高品質なデータセットの可用性に依存している。
合成データは、現実世界のパターンを模倣する人工データを生成することによって、有望なソリューションとして現れてきた。
論文 参考訳(メタデータ) (2024-04-11T06:34:17Z) - SDFR: Synthetic Data for Face Recognition Competition [51.9134406629509]
大規模な顔認識データセットは、インターネットをクロールして個人の同意なしに収集し、法的、倫理的、プライバシー上の懸念を提起する。
近年、ウェブクローリングされた顔認識データセットにおける懸念を軽減するために、合成顔認識データセットの生成が提案されている。
本稿では,第18回IEEE International Conference on Automatic Face and Gesture Recognition (FG 2024)と共同で開催されているSynthetic Data for Face Recognition (SDFR)コンペティションの概要を紹介する。
SDFRコンペティションは2つのタスクに分けられ、参加者は新しい合成データセットまたは/または既存のデータセットを使用して顔認識システムを訓練することができる。
論文 参考訳(メタデータ) (2024-04-06T10:30:31Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Fake It Till You Make It: Face analysis in the wild using synthetic data
alone [9.081019005437309]
合成データだけで顔関連コンピュータビジョンを野生で実行可能であることを示す。
本稿では、手続き的に生成された3次元顔モデルと手作り資産の包括的ライブラリを組み合わせることで、前例のないリアリズムによるトレーニング画像のレンダリングを行う方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T13:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。