論文の概要: Sparse and Privacy-enhanced Representation for Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2309.09515v1
- Date: Mon, 18 Sep 2023 06:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:51:55.198781
- Title: Sparse and Privacy-enhanced Representation for Human Pose Estimation
- Title(参考訳): 人格推定のためのスパースおよびプライバシー強化表現
- Authors: Ting-Ying Lin and Lin-Yung Hsieh and Fu-En Wang and Wen-Shen Wuen and
Min Sun
- Abstract要約: HPE(Human Pose Estimation)のための疎結合でプライバシーに配慮した表現を提案する。
我々は、独自の動きベクトルセンサを用いて、各フレームでエッジ画像と2方向の動きベクトルイメージを抽出する。
本手法は,エッジやモーションベクトル画像のみを用いて,個々のモーダル性に優れる。
- 参考スコア(独自算出の注目度): 13.043891960991864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a sparse and privacy-enhanced representation for Human Pose
Estimation (HPE). Given a perspective camera, we use a proprietary motion
vector sensor(MVS) to extract an edge image and a two-directional motion vector
image at each time frame. Both edge and motion vector images are sparse and
contain much less information (i.e., enhancing human privacy). We advocate that
edge information is essential for HPE, and motion vectors complement edge
information during fast movements. We propose a fusion network leveraging
recent advances in sparse convolution used typically for 3D voxels to
efficiently process our proposed sparse representation, which achieves about
13x speed-up and 96% reduction in FLOPs. We collect an in-house edge and motion
vector dataset with 16 types of actions by 40 users using the proprietary MVS.
Our method outperforms individual modalities using only edge or motion vector
images. Finally, we validate the privacy-enhanced quality of our sparse
representation through face recognition on CelebA (a large face dataset) and a
user study on our in-house dataset.
- Abstract(参考訳): 本稿では,Human Pose Estimation (HPE) のスパース表現とプライバシ強化表現を提案する。
視点カメラが与えられた場合,各フレームのエッジ画像と2方向動きベクトル画像を抽出するために,独自のモーションベクトルセンサ(mvs)を用いる。
エッジとモーションベクターのイメージはスパースであり、情報が少ない(つまり人間のプライバシーの強化)。
エッジ情報はhpeに必須であり,動きベクトルは高速動作時にエッジ情報を補完する。
本研究では,3dボクセルによく用いられるスパース畳み込みの最近の進歩を利用して,提案するスパース表現を効率的に処理し,約13倍の高速化と96%のフロップ削減を実現する融合ネットワークを提案する。
プロプライエタリなMVSを使用して,40ユーザによる16種類のアクションを含む,社内エッジとモーションベクトルデータセットを収集する。
本手法は,エッジやモーションベクトル画像のみを用いて,個々のモーダル性に優れる。
最後に、celeba(大きな顔データセット)上の顔認識と、社内データセットに関するユーザスタディを通じて、スパース表現のプライバシ向上品質を検証する。
関連論文リスト
- RT-Pose: A 4D Radar Tensor-based 3D Human Pose Estimation and Localization Benchmark [20.186044032530557]
本稿では,Radarベースのヒューマンポーズ(RT-Pose)データセットとオープンソースのベンチマークフレームワークを提案する。
RT-Poseデータセットは、4Dレーダテンソル、LiDARポイントクラウド、RGBイメージで構成されており、6つの複雑さレベルアクションを持つ240のシーケンスにわたる合計72kフレームに対して収集される。
RGB画像とLiDAR点雲を用いて3次元人間の骨格を正確にラベル付けするアノテーションプロセスを開発する。
さらに,3次元空間における4次元レーダーテンソルの高分解能表現を抽出し,人間のキーポイント推定を支援する最初の単一ステージアーキテクチャであるHRRadarPoseを提案する。
論文 参考訳(メタデータ) (2024-07-18T22:46:35Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - Capturing the motion of every joint: 3D human pose and shape estimation
with independent tokens [34.50928515515274]
モノクロ映像から3次元人物のポーズと形状を推定する新しい手法を提案する。
提案手法は,3DPWおよびHuman3.6Mデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-01T07:48:01Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Privacy-Preserving Action Recognition via Motion Difference Quantization [22.31448780032675]
本稿では,BDQと呼ばれるシンプルかつ堅牢なプライバシ保護エンコーダを提案する。
ブラー、差分、量子化の3つのモジュールで構成されている。
3つのベンチマークデータセットの実験は、提案したエンコーダの設計が最先端のトレードオフを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-04T05:03:27Z) - Direct Multi-view Multi-person 3D Pose Estimation [138.48139701871213]
マルチビュー画像からマルチパーソン3Dポーズを推定するためのMulti-view Pose Transformer(MvP)を提案する。
MvPは、中間タスクに頼ることなく、複数の人物の3Dポーズを直接クリーンで効率的な方法で回帰する。
我々は,MvPモデルがより効率的でありながら,いくつかのベンチマークにおいて最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-07T13:09:20Z) - Improving Robustness and Accuracy via Relative Information Encoding in
3D Human Pose Estimation [59.94032196768748]
位置および時間的拡張表現を出力する相対情報符号化法を提案する。
提案手法は2つの公開データセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-07-29T14:12:19Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Unsupervised Learning on Monocular Videos for 3D Human Pose Estimation [121.5383855764944]
コントラッシブな自己教師学習を用いて、シングルビュービデオからリッチな潜伏ベクトルを抽出する。
また,CSSを時間変化の特徴のみに適用すると同時に,入力を再構築し,近辺と遠方の特徴間の段階的な遷移を促すことにより,リッチな潜伏空間が得られることを示す。
本手法は他の教師なしシングルビュー手法よりも優れており,マルチビュー手法の性能と一致している。
論文 参考訳(メタデータ) (2020-12-02T20:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。