論文の概要: hear-your-action: human action recognition by ultrasound active sensing
- arxiv url: http://arxiv.org/abs/2309.08087v1
- Date: Fri, 15 Sep 2023 01:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 16:24:53.110027
- Title: hear-your-action: human action recognition by ultrasound active sensing
- Title(参考訳): 超音波アクティブセンシングによる人間の行動認識
- Authors: Risako Tanigawa, Yasunori Ishii
- Abstract要約: アクション認識は多くの産業用途において重要な技術である。
プライバシー問題により、個人情報が組み込まれているため、広く利用できない。
超音波能動センシングによるプライバシー保護行動認識を提案する。
- 参考スコア(独自算出の注目度): 3.0277213703725767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Action recognition is a key technology for many industrial applications.
Methods using visual information such as images are very popular. However,
privacy issues prevent widespread usage due to the inclusion of private
information, such as visible faces and scene backgrounds, which are not
necessary for recognizing user action. In this paper, we propose a
privacy-preserving action recognition by ultrasound active sensing. As action
recognition from ultrasound active sensing in a non-invasive manner is not well
investigated, we create a new dataset for action recognition and conduct a
comparison of features for classification. We calculated feature values by
focusing on the temporal variation of the amplitude of ultrasound reflected
waves and performed classification using a support vector machine and VGG for
eight fundamental action classes. We confirmed that our method achieved an
accuracy of 97.9% when trained and evaluated on the same person and in the same
environment. Additionally, our method achieved an accuracy of 89.5% even when
trained and evaluated on different people. We also report the analyses of
accuracies in various conditions and limitations.
- Abstract(参考訳): アクション認識は多くの産業用途において重要な技術である。
画像などの視覚情報を利用する方法は非常に人気がある。
しかし、プライバシー問題は、ユーザアクションを認識するのに不要な、目に見える顔や背景などのプライベート情報が含まれているため、広く使われることを防止する。
本稿では,超音波アクティブセンシングによるプライバシー保護行動認識を提案する。
非侵襲的な超音波アクティブセンシングによる行動認識は十分に研究されていないため,行動認識のための新しいデータセットを作成し,分類の特徴の比較を行う。
超音波反射波の振幅の時間的変動に着目して特徴値を算出し,8つの基本動作クラスに対する支持ベクトルマシンとVGGを用いた分類を行った。
その結果,同一人物と同一環境での訓練と評価を行った場合の精度は97.9%であった。
また,異なる人を対象に訓練・評価した場合でも,89.5%の精度が得られた。
また,様々な条件と限界における精度の分析についても報告する。
関連論文リスト
- A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Measuring Human Perception to Improve Open Set Recognition [4.124573231232705]
オブジェクトが特定の視覚タスクに属しているか、属していないかを認識できる能力は、すべてのオープンセット認識アルゴリズムより優れている。
被験者による測定された反応時間は、クラスサンプルが別のクラスと混同される傾向にあるかどうかについての洞察を与えることができる。
新たな精神物理学的損失関数は、異なる画像に対する可変反応時間を示すディープネットワークにおける人間の行動と整合性を強制する。
論文 参考訳(メタデータ) (2022-09-08T01:19:36Z) - Privacy-Preserving Face Recognition with Learnable Privacy Budgets in
Frequency Domain [77.8858706250075]
本稿では,周波数領域における差分プライバシーを用いたプライバシ保護顔認証手法を提案する。
本手法はいくつかの古典的顔認証テストセットで非常によく機能する。
論文 参考訳(メタデータ) (2022-07-15T07:15:36Z) - Invisible-to-Visible: Privacy-Aware Human Instance Segmentation using
Airborne Ultrasound via Collaborative Learning Variational Autoencoder [8.21448246263952]
本研究では, 目に見える情報, 特に空中超音波による行動認識のための, 人間のインスタンスのセグメンテーションのための新しいタスクを提案する。
目に見えない情報からサンプルセグメンテーションを行うために、まず音波を反射音方向画像(音像)に変換する。
推測では,音像のみから事例分割結果を得ることができる。
論文 参考訳(メタデータ) (2022-04-15T00:56:01Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - A Grid-based Representation for Human Action Recognition [12.043574473965318]
ビデオにおけるヒューマンアクション認識(HAR)は、コンピュータビジョンにおける基本的な研究課題である。
本稿では,行動の最も識別性の高い外観情報を効率的に符号化する行動認識手法を提案する。
提案手法は, モデルが人間の行動を正確に認識できることを示すために, いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-10-17T18:25:00Z) - Cross-Task Transfer for Geotagged Audiovisual Aerial Scene Recognition [61.54648991466747]
映像と音を入力として用いた視覚的空中シーン認識タスクについて検討する。
航空シーン認識のための音声情報を活用する利点を示す。
論文 参考訳(メタデータ) (2020-05-18T04:14:16Z) - Sensor Data for Human Activity Recognition: Feature Representation and
Benchmarking [27.061240686613182]
HAR(Human Activity Recognition)の分野は、監視装置(センサなど)から取得したデータを取得し、分析することに焦点を当てている。
我々は、異なる機械学習(ML)技術を用いて、人間のアクティビティを正確に認識する問題に対処する。
論文 参考訳(メタデータ) (2020-05-15T00:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。