論文の概要: DensePose From WiFi
- arxiv url: http://arxiv.org/abs/2301.00250v1
- Date: Sat, 31 Dec 2022 16:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:11:43.083707
- Title: DensePose From WiFi
- Title(参考訳): WiFiのDensePose
- Authors: Jiaqi Geng, Dong Huang, Fernando De la Torre
- Abstract要約: WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
- 参考スコア(独自算出の注目度): 86.61881052177228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in computer vision and machine learning techniques have led to
significant development in 2D and 3D human pose estimation from RGB cameras,
LiDAR, and radars. However, human pose estimation from images is adversely
affected by occlusion and lighting, which are common in many scenarios of
interest. Radar and LiDAR technologies, on the other hand, need specialized
hardware that is expensive and power-intensive. Furthermore, placing these
sensors in non-public areas raises significant privacy concerns. To address
these limitations, recent research has explored the use of WiFi antennas (1D
sensors) for body segmentation and key-point body detection. This paper further
expands on the use of the WiFi signal in combination with deep learning
architectures, commonly used in computer vision, to estimate dense human pose
correspondence. We developed a deep neural network that maps the phase and
amplitude of WiFi signals to UV coordinates within 24 human regions. The
results of the study reveal that our model can estimate the dense pose of
multiple subjects, with comparable performance to image-based approaches, by
utilizing WiFi signals as the only input. This paves the way for low-cost,
broadly accessible, and privacy-preserving algorithms for human sensing.
- Abstract(参考訳): コンピュータビジョンと機械学習技術の進歩は、RGBカメラ、LiDAR、レーダーによる2Dと3Dの人間のポーズ推定に大きな発展をもたらした。
しかし、画像からの人間のポーズ推定は、多くの関心のシナリオでよく見られる閉塞や照明の影響を受けやすい。
一方、RadarとLiDARの技術は、高価で電力集約的な特殊なハードウェアを必要とする。
さらに、これらのセンサーを公共の場で使用すると、プライバシーの懸念が高まる。
これらの制限に対処するため、最近の研究では、ボディセグメンテーションとキーポイントボディ検出にWiFiアンテナ(1Dセンサー)の使用について検討している。
本稿では、コンピュータビジョンで一般的に使用される深層学習アーキテクチャと組み合わせて、密接な人間のポーズ対応を推定するwi-fi信号の利用をさらに拡大する。
我々は24領域の紫外線座標にwifi信号の位相と振幅をマッピングするディープニューラルネットワークを開発した。
本研究の結果から,WiFi信号のみを入力として利用することにより,複数の被験者の濃密なポーズを画像ベースアプローチに匹敵する性能で推定できることが判明した。
これは、低コストで、広くアクセス可能で、人間のセンシングのためのプライバシー保護アルゴリズムの道を開くものだ。
関連論文リスト
- Neuro-Symbolic Fusion of Wi-Fi Sensing Data for Passive Radar with Inter-Modal Knowledge Transfer [10.388561519507471]
本稿では,Wi-FiセンシングのためのニューロシンボリックアーキテクチャであるDeepProbHARを紹介する。
これは、Wi-Fi信号が脚や腕の動きなどの単純な動きと区別できるという最初の証拠を提供する。
DeepProbHARは、人間の活動認識における最先端技術に匹敵する結果を達成している。
論文 参考訳(メタデータ) (2024-07-01T08:43:27Z) - Cross Vision-RF Gait Re-identification with Low-cost RGB-D Cameras and
mmWave Radars [15.662787088335618]
本研究は, クロスモーダルヒト再識別(ReID)の問題に関する研究である。
マルチモーダル多人数共振器ReIDのための第1種視覚RFシステムを提案する。
提案システムは56名のボランティアのうち92.5%がトップ1の精度、97.5%がトップ5の精度を達成できる。
論文 参考訳(メタデータ) (2022-07-16T10:34:25Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - WiFi-based Spatiotemporal Human Action Perception [53.41825941088989]
SNN(End-to-end WiFi signal Neural Network)は、Wi-Fiのみのセンシングを可能にするために提案されている。
特に、3D畳み込みモジュールはWiFi信号の時間的連続性を探索することができ、特徴自己保持モジュールは支配的な特徴を明示的に維持することができる。
論文 参考訳(メタデータ) (2022-06-20T16:03:45Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - Analyzing General-Purpose Deep-Learning Detection and Segmentation
Models with Images from a Lidar as a Camera Sensor [0.06554326244334865]
本研究は,高度ライダーセンサのイメージライクな出力処理のための汎用DL認識アルゴリズムの可能性について検討する。
3次元の点クラウドデータを処理するのではなく、私たちの知る限りでは、360textの視野を持つ低解像度の画像にフォーカスする最初の試みである。
適切な事前処理を行うことで、汎用DLモデルはこれらの画像を処理し、環境条件下での使用への扉を開くことができることを示す。
論文 参考訳(メタデータ) (2022-03-08T13:14:43Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - All-Weather Object Recognition Using Radar and Infrared Sensing [1.7513645771137178]
この論文は、物体を認識するために、長波偏光赤外線(IR)画像とイメージングレーダに基づく新しいセンシング開発を探求する。
まず、偏光赤外データを用いたストークスパラメータに基づく手法を開発し、深層ニューラルネットワークを用いた車両の認識を行った。
第2に、低THzレーダセンサで捉えたパワースペクトルのみを用いて、制御されたシナリオで物体認識を行う可能性について検討した。
最後に、悪天候下で車両を検出するレーダーロバスト性を示す多くの異なる気象シナリオを備えた、"ワイルド"に新しい大規模なデータセットを作成しました。
論文 参考訳(メタデータ) (2020-10-30T14:16:39Z) - Perceiving Humans: from Monocular 3D Localization to Social Distancing [93.03056743850141]
本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-01T10:12:30Z) - A Deep Learning-based Radar and Camera Sensor Fusion Architecture for
Object Detection [0.0]
本研究の目的は,現在の2次元物体検出ネットワークを,カメラデータとスパースレーダデータをネットワーク層内に投影することによって拡張することである。
提案するCameraRadarFusionNet(CRF-Net)は,センサデータの融合が検出結果に最も有用であるレベルを自動的に学習する。
Dropoutにインスパイアされたトレーニング戦略であるBlackInは、特定のセンサータイプに関する学習に焦点を当てている。
論文 参考訳(メタデータ) (2020-05-15T09:28:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。