論文の概要: Personalized breath based biometric authentication with wearable
multimodality
- arxiv url: http://arxiv.org/abs/2110.15941v1
- Date: Fri, 29 Oct 2021 17:41:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 15:30:40.562596
- Title: Personalized breath based biometric authentication with wearable
multimodality
- Title(参考訳): ウェアラブルマルチモダリティを用いたパーソナライズされた呼吸型生体認証
- Authors: Manh-Ha Bui, Viet-Anh Tran, Cuong Pham
- Abstract要約: 鼻音の特徴を持つ呼吸は、個人識別と検証において潜在的なバイオメトリックスとして示されている。
胸部のモーションセンサーが捉えた他のモダリティから得られる情報に加えて、オーディオ機能によってパフォーマンスがさらに向上することを示します。
- 参考スコア(独自算出の注目度): 2.335150656883681
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breath with nose sound features has been shown as a potential biometric in
personal identification and verification. In this paper, we show that
information that comes from other modalities captured by motion sensors on the
chest in addition to audio features could further improve the performance. Our
work is composed of three main contributions: hardware creation, dataset
publication, and proposed multimodal models. To be more specific, we design new
hardware which consists of an acoustic sensor to collect audio features from
the nose, as well as an accelerometer and gyroscope to collect movement on the
chest as a result of an individual's breathing. Using this hardware, we publish
a collected dataset from a number of sessions from different volunteers, each
session includes three common gestures: normal, deep, and strong breathing.
Finally, we experiment with two multimodal models based on Convolutional Long
Short Term Memory (CNN-LSTM) and Temporal Convolutional Networks (TCN)
architectures. The results demonstrate the suitability of our new hardware for
both verification and identification tasks.
- Abstract(参考訳): 鼻音の特徴を持つ呼吸は、個人識別と検証において潜在的なバイオメトリックスとして示されている。
本稿では、胸部の動きセンサが捉えた他のモダリティから得られる情報に加えて、音声機能によりさらに性能が向上することを示す。
私たちの仕事は、ハードウェア作成、データセットパブリッシュ、提案されたマルチモーダルモデルという3つの主要なコントリビューションで構成されています。
より具体的には、鼻から音響的特徴を収集する音響センサと、個々の呼吸の結果、胸部の動きを収集する加速度計とジャイロスコープで構成される新しいハードウェアを設計する。
このハードウェアを使用して、さまざまなボランティアのセッションから収集したデータセットを公開し、各セッションは正常、深呼吸、強呼吸の3つの一般的なジェスチャーを含む。
最後に、CNN-LSTM(Convolutional Long Term Memory)とTCN(Temporal Convolutional Networks)アーキテクチャに基づく2つのマルチモーダルモデルについて実験を行った。
その結果,検証作業と識別作業の両方において,新しいハードウェアの適合性が示された。
関連論文リスト
- OMuSense-23: A Multimodal Dataset for Contactless Breathing Pattern Recognition and Biometric Analysis [3.7013279051980605]
我々は,mmWaveレーダとRGB-Dカメラから得られた生体信号を含むOulu Multi Sensingデータセットを紹介する。
このデータセットは、50人の個人から3つの異なるポーズ(立位、座位、横)のデータを特徴付けている。
その結果, バイオシグナーから抽出した特徴を用いて, ポーズ識別精度87%, 呼吸パターン活性認識83%を得た。
論文 参考訳(メタデータ) (2024-05-22T14:47:29Z) - TIM: A Time Interval Machine for Audio-Visual Action Recognition [64.24297230981168]
音声と視覚イベントの時間的範囲を明示的にモデル化することで、長いビデオにおける2つのモード間の相互作用に対処する。
本稿では,TIM (Time Interval Machine) を提案する。
我々は、EPIC-KITCHENS、Perception Test、AVEの3つの長い音声視覚ビデオデータセットでTIMをテストする。
論文 参考訳(メタデータ) (2024-04-08T14:30:42Z) - EchoTrack: Auditory Referring Multi-Object Tracking for Autonomous Driving [64.58258341591929]
聴覚参照マルチオブジェクトトラッキング(AR-MOT)は、自律運転において難しい問題である。
私たちは、デュアルストリーム・ビジョン・トランスフォーマーを備えたエンドツーエンドのAR-MOTフレームワークであるEchoTrackを提案しました。
大規模AR-MOTベンチマークの最初のセットを確立する。
論文 参考訳(メタデータ) (2024-02-28T12:50:16Z) - Disentangling Imperfect: A Wavelet-Infused Multilevel Heterogeneous
Network for Human Activity Recognition in Flawed Wearable Sensor Data [30.213716132980874]
センサデータ解析のためのマルチレベルヘテロジニアスニューラルネットワーク MHNN を提案する。
センサデータからマルチレベル離散ウェーブレット分解法を用いてマルチレゾリューション特徴を抽出する。
提案したモデルに,マルチスケール特徴の学習を可能にする異種特徴抽出器を装備する。
論文 参考訳(メタデータ) (2024-01-26T06:08:49Z) - Robust Wake-Up Word Detection by Two-stage Multi-resolution Ensembles [48.208214762257136]
オーディオストリームのリアルタイム処理のための軽量オンデバイスモデルと、サーバ側の検証モデルである。
プライバシーを保護するため、オーディオ機能は生のオーディオではなくクラウドに送られる。
論文 参考訳(メタデータ) (2023-10-17T16:22:18Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - Analysis of EEG frequency bands for Envisioned Speech Recognition [4.695687634290404]
脳波の周波数帯と脳の異なる葉から得られる信号の意義を分析することを目的としている。
分類精度は, それぞれ85.93%, 87.27%, 87.51%である。
論文 参考訳(メタデータ) (2022-03-29T05:50:09Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Metric-based multimodal meta-learning for human movement identification
via footstep recognition [3.300376360949452]
マルチモーダル・フレームワークを導入した新しいメトリック・ベース・ラーニング・アプローチについて述べる。
我々は,全方位センサシステムから得られた低感度データから汎用表現を学習する。
本研究は,マルチセンサデータに対するメトリクスに基づくコントラスト学習手法を用いて,データ不足の影響を緩和する。
論文 参考訳(メタデータ) (2021-11-15T18:46:14Z) - Many-to-Many Voice Transformer Network [55.17770019619078]
本稿では,S2S学習フレームワークに基づく音声変換(VC)手法を提案する。
これにより、音声特性、ピッチ輪郭、入力音声の持続時間の同時変換が可能となる。
論文 参考訳(メタデータ) (2020-05-18T04:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。