論文の概要: Invisible-to-Visible: Privacy-Aware Human Instance Segmentation using
Airborne Ultrasound via Collaborative Learning Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2204.07280v1
- Date: Fri, 15 Apr 2022 00:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 23:37:11.540185
- Title: Invisible-to-Visible: Privacy-Aware Human Instance Segmentation using
Airborne Ultrasound via Collaborative Learning Variational Autoencoder
- Title(参考訳): 可視性: 協調学習変分オートエンコーダによる空中超音波を用いたプライバシを考慮したヒューマンインスタンスセグメンテーション
- Authors: Risako Tanigawa, Yasunori Ishii, Kazuki Kozuka and Takayoshi Yamashita
- Abstract要約: 本研究では, 目に見える情報, 特に空中超音波による行動認識のための, 人間のインスタンスのセグメンテーションのための新しいタスクを提案する。
目に見えない情報からサンプルセグメンテーションを行うために、まず音波を反射音方向画像(音像)に変換する。
推測では,音像のみから事例分割結果を得ることができる。
- 参考スコア(独自算出の注目度): 8.21448246263952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In action understanding in indoor, we have to recognize human pose and action
considering privacy. Although camera images can be used for highly accurate
human action recognition, camera images do not preserve privacy. Therefore, we
propose a new task for human instance segmentation from invisible information,
especially airborne ultrasound, for action recognition. To perform instance
segmentation from invisible information, we first convert sound waves to
reflected sound directional images (sound images). Although the sound images
can roughly identify the location of a person, the detailed shape is ambiguous.
To address this problem, we propose a collaborative learning variational
autoencoder (CL-VAE) that simultaneously uses sound and RGB images during
training. In inference, it is possible to obtain instance segmentation results
only from sound images. As a result of performance verification, CL-VAE could
estimate human instance segmentations more accurately than conventional
variational autoencoder and some other models. Since this method can obtain
human segmentations individually, it could be applied to human action
recognition tasks with privacy protection.
- Abstract(参考訳): 屋内での行動理解においては,プライバシーを考慮した人間の行動と行動を認識する必要がある。
カメラ画像は高精度な人間の行動認識に使用できるが、カメラ画像はプライバシーを保たない。
そこで本研究では,目に見える情報,特に空中超音波による行動認識のための新しい事例分割タスクを提案する。
目に見えない情報からサンプルセグメンテーションを行うため,まず音波を反射音方向画像(音像)に変換する。
音像は人物の位置を大まかに識別できるが、その詳細な形状は曖昧である。
そこで本研究では,学習中に音像とrgb画像を同時に利用するcl-vae(collaborative learning variational autoencoder)を提案する。
推論では、音声画像のみからインスタンスセグメンテーション結果を得ることができる。
性能検証の結果、CL-VAEは従来の変分オートエンコーダや他のモデルよりも正確に人間のインスタンスセグメンテーションを推定することができた。
この方法は個別に人間のセグメンテーションを得ることができるため、プライバシ保護を伴う人間の行動認識タスクにも適用できる。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - hear-your-action: human action recognition by ultrasound active sensing [3.0277213703725767]
アクション認識は多くの産業用途において重要な技術である。
プライバシー問題により、個人情報が組み込まれているため、広く利用できない。
超音波能動センシングによるプライバシー保護行動認識を提案する。
論文 参考訳(メタデータ) (2023-09-15T01:00:55Z) - No-audio speaking status detection in crowded settings via visual
pose-based filtering and wearable acceleration [8.710774926703321]
ビデオとウェアラブルのセンサーは、邪魔にならないプライバシー保護の方法で話すことを認識できる。
ポーズキーポイントに関する局所的特徴の選択は一般化性能に肯定的な影響を及ぼすことを示す。
また,ウェアラブルセンサを用いて測定した加速度を同じタスクに利用し,両手法を組み合わせたマルチモーダルアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-01T15:55:48Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - Invisible-to-Visible: Privacy-Aware Human Segmentation using Airborne
Ultrasound via Collaborative Learning Probabilistic U-Net [8.21448246263952]
本研究では,見えない情報,特に空中超音波による人体セグメンテーションのための新しい課題を提案する。
超音波画像は人物の位置を大まかに特定できるが、詳細な形状は曖昧である。
本稿では,超音波画像とセグメンテーション画像を同時に使用する協調学習確率的U-Netを提案する。
論文 参考訳(メタデータ) (2022-05-11T06:42:24Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Pose-Controllable Talking Face Generation by Implicitly Modularized
Audio-Visual Representation [96.66010515343106]
ポーズ制御可能な発話顔を生成するためのクリーンで効果的なフレームワークを提案する。
我々は1枚の写真のみを識別基準として生の顔画像を操作する。
私達のモデルに極度な視野の堅牢性および話す表面前部化を含む複数の高度の機能があります。
論文 参考訳(メタデータ) (2021-04-22T15:10:26Z) - A proto-object based audiovisual saliency map [0.0]
本研究では,動的自然シーンの分析を行うために,プロトオブジェクトベースオーディオビジュアル・サリエンシ・マップ(AVSM)を開発した。
このような環境は、監視、ロボットナビゲーション、ビデオ圧縮および関連するアプリケーションに有用である。
論文 参考訳(メタデータ) (2020-03-15T08:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。