論文の概要: Deception Detection and Remote Physiological Monitoring: A Dataset and
Baseline Experimental Results
- arxiv url: http://arxiv.org/abs/2106.06583v1
- Date: Fri, 11 Jun 2021 19:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:06:53.464514
- Title: Deception Detection and Remote Physiological Monitoring: A Dataset and
Baseline Experimental Results
- Title(参考訳): 偽装検出と遠隔生理モニタリング:データセットと基礎実験結果
- Authors: Jeremy Speth, Nathan Vance, Adam Czajka, Kevin W. Bowyer, Diane
Wright, Patrick Flynn
- Abstract要約: 本稿では,認知検出と生理モニタリングのデータセットと,このデータセットに対する初期ベースライン結果について述べる。
アプリケーション・コンテキストは,面接者が面接者の選択した回答を騙そうとする面接シナリオである。
インタビュアーはRGB、近赤外線、長波赤外線、心拍、血液酸素、オーディオで記録される。
- 参考スコア(独自算出の注目度): 10.705008162680647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Deception Detection and Physiological Monitoring (DDPM)
dataset and initial baseline results on this dataset. Our application context
is an interview scenario in which the interviewee attempts to deceive the
interviewer on selected responses. The interviewee is recorded in RGB,
near-infrared, and long-wave infrared, along with cardiac pulse, blood
oxygenation, and audio. After collection, data were annotated for
interviewer/interviewee, curated, ground-truthed, and organized into train /
test parts for a set of canonical deception detection experiments. Baseline
experiments found random accuracy for micro-expressions as an indicator of
deception, but that saccades can give a statistically significant response. We
also estimated subject heart rates from face videos (remotely) with a mean
absolute error as low as 3.16 bpm. The database contains almost 13 hours of
recordings of 70 subjects, and over 8 million visible-light, near-infrared, and
thermal video frames, along with appropriate meta, audio and pulse oximeter
data. To our knowledge, this is the only collection offering recordings of five
modalities in an interview scenario that can be used in both deception
detection and remote photoplethysmography research.
- Abstract(参考訳): 本稿では,ddpm(deception detection and physiological monitoring)データセットと,その最初のベースライン結果について述べる。
私たちのアプリケーションコンテキストは、面接者が選択した回答について面接者をだまそうとするインタビューシナリオです。
インタビュアーはrgb、近赤外、長波赤外線、心臓パルス、血液酸素化、音声で記録される。
収集後、データはインタビュアー/インタービューに注釈付けされ、キュレートされ、接地され、一連の正準の偽装検出実験のための列車/試験部品に編成された。
ベースライン実験では、偽りの指標としてマイクロ表現のランダムな精度を見出したが、サッケードは統計的に有意な反応を与える可能性がある。
また、平均絶対誤差が3.16bpmと低い顔ビデオ(リモート)から被写体心拍数を推定した。
データベースには70人の被験者の約13時間の録音と800万以上の可視光、近赤外線、熱ビデオフレームと適切なメタ、オーディオ、パルスオキシメータデータが含まれている。
私たちの知る限りでは、このコレクションは5つのモダリティの録音を提供する唯一のコレクションであり、デセプション検出とリモートフォトプレチモグラフィ研究の両方で使用できる。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Remote Bio-Sensing: Open Source Benchmark Framework for Fair Evaluation
of rPPG [2.82697733014759]
r(pg photoplethysmography)は、カメラで捉えたヘモグロビンの光吸収特性を用いてBVP(Blood Volume Pulse)を測定し、分析する技術である。
本研究は,多種多様なデータセットを対象とした様々なrベンチマーク手法の評価を行い,妥当性評価と比較を行うためのフレームワークを提供することを目的とする。
論文 参考訳(メタデータ) (2023-07-24T09:35:47Z) - Non-Contrastive Unsupervised Learning of Physiological Signals from
Video [4.8327232174895745]
ラベル付きビデオデータから解放される信号回帰を非コントラスト非教師付き学習フレームワークを提案する。
周期性と有限帯域幅の仮定は最小限であり,本手法では非競合ビデオから直接血液体積パルスを検出することができる。
論文 参考訳(メタデータ) (2023-03-14T14:34:51Z) - ForDigitStress: A multi-modal stress dataset employing a digital job
interview scenario [48.781127275906435]
本稿では,デジタル面接を利用してストレスを誘発するマルチモーダルストレスデータセットを提案する。
このデータセットは、オーディオ、ビデオ、生理情報を含む40人の参加者のマルチモーダルデータを提供する。
ベースラインを確立するために、5つの異なる機械学習分類器が訓練され、評価されている。
論文 参考訳(メタデータ) (2023-03-14T09:40:37Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Event-based clinical findings extraction from radiology reports with
pre-trained language model [0.22940141855172028]
今回,臨床所見を付加した新しい放射線診断報告のコーパスを報告する。
金の標準コーパスには合計500点の注記CTレポートが含まれていた。
BERTを含む2つの最先端ディープラーニングアーキテクチャを用いて、トリガと引数のエンティティを抽出した。
論文 参考訳(メタデータ) (2021-12-27T05:03:10Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Heart Rate Estimation from Face Videos for Student Assessment:
Experiments on edBB [24.666654058140836]
本研究は、リモート光胸腺撮影技術を用いて心拍数推定を行うためのRGBおよび近赤外ビデオシーケンスに焦点を当てた。
実験には、25人の異なる学生による行動的および生理的データが含まれており、eラーニングに関連するタスクの収集が完了している。
提案した顔の心拍数推定手法は,スマートウォッチが提供する心拍数と比較し,将来のeラーニングアプリケーションへの展開について非常に有望な結果を得た。
論文 参考訳(メタデータ) (2020-06-01T10:04:36Z) - PhyAAt: Physiology of Auditory Attention to Speech Dataset [0.5976833843615385]
自然発話に対する聴覚的注意は複雑な脳プロセスである。
本稿では,聴覚的注意実験から自然音声への生理的信号のデータセットについて述べる。
論文 参考訳(メタデータ) (2020-05-23T17:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。