論文の概要: Human Activity Recognition Using 3D Orthogonally-projected EfficientNet
on Radar Time-Range-Doppler Signature
- arxiv url: http://arxiv.org/abs/2111.12375v1
- Date: Wed, 24 Nov 2021 09:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 15:33:23.552685
- Title: Human Activity Recognition Using 3D Orthogonally-projected EfficientNet
on Radar Time-Range-Doppler Signature
- Title(参考訳): レーダ時線ドップラー信号を用いた3次元直交プロジェクタンスネットによる人間の活動認識
- Authors: Zeyu Wang, Chenglin Yao, Jianfeng Ren, Xudong Jiang
- Abstract要約: 本稿では,3次元時間領域ドップラー(TRD)表現の利用,および3次元直交投影型効率ネット(3D-OPEN)の設計を提案する。
提案モデルは,3次元特徴空間から投影される3次元平面の識別情報を集約する。
これはレーダー活動認識の最先端の手法を著しく、一貫して上回っている。
- 参考スコア(独自算出の注目度): 26.3586963595992
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In radar activity recognition, 2D signal representations such as spectrogram,
cepstrum and cadence velocity diagram are often utilized, while range
information is often neglected. In this work, we propose to utilize the 3D
time-range-Doppler (TRD) representation, and design a 3D Orthogonally-Projected
EfficientNet (3D-OPEN) to effectively capture the discriminant information
embedded in the 3D TRD cubes for accurate classification. The proposed model
aggregates the discriminant information from three orthogonal planes projected
from the 3D feature space. It alleviates the difficulty of 3D CNNs in
exploiting sparse semantic abstractions directly from the high-dimensional 3D
representation. The proposed method is evaluated on the Millimeter-Wave Radar
Walking Dataset. It significantly and consistently outperforms the
state-of-the-art methods for radar activity recognition.
- Abstract(参考訳): レーダーアクティビティ認識では、スペクトログラム、ケプストラム、ケイデンス速度図などの2次元信号表現が頻繁に用いられるが、範囲情報は無視されることが多い。
本研究では,3次元TRDキューブに埋め込まれた識別情報を正確な分類のために効果的に捉えるために,TRD表現と3次元直交投影型効率ネット(3D-OPEN)の設計を提案する。
提案モデルは、3次元特徴空間から投影される3つの直交平面から識別情報を集約する。
高次元の3次元表現から直接スパースなセマンティック抽象化を利用する際の3次元CNNの難しさを軽減する。
提案手法はミリ波レーダ歩行データセットを用いて評価する。
レーダー活動認識の最先端手法を著しく、一貫して上回る。
関連論文リスト
- GET-UP: GEomeTric-aware Depth Estimation with Radar Points UPsampling [7.90238039959534]
既存のアルゴリズムは3Dポイントを画像面に投影してレーダデータを処理し、画素レベルの特徴抽出を行う。
レーダデータから2次元情報と3次元情報を交換・集約するために,注目度の高いグラフニューラルネットワーク(GNN)を利用するGET-UPを提案する。
提案したGET-UPをnuScenesデータセット上でベンチマークし,従来最高のパフォーマンスモデルよりも15.3%,14.7%改善した。
論文 参考訳(メタデータ) (2024-09-02T14:15:09Z) - RadarPillars: Efficient Object Detection from 4D Radar Point Clouds [42.9356088038035]
本稿では,柱型物体検出ネットワークRadarPillarsを提案する。
放射速度データを分解することにより、RadarPillarsは、View-of-Delftデータセットの最先端検出結果を大幅に上回る。
これはパラメータ数を大幅に削減し、既存のメソッドを効率面で上回り、エッジデバイス上でのリアルタイムパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-09T12:13:38Z) - OV-Uni3DETR: Towards Unified Open-Vocabulary 3D Object Detection via Cycle-Modality Propagation [67.56268991234371]
OV-Uni3DETRは、様々なシナリオにおける最先端のパフォーマンスを達成し、既存のメソッドを平均6%以上上回っている。
コードと事前訓練されたモデルは、後にリリースされる。
論文 参考訳(メタデータ) (2024-03-28T17:05:04Z) - CenterRadarNet: Joint 3D Object Detection and Tracking Framework using
4D FMCW Radar [28.640714690346353]
CenterRadarNetは、4D(Doppler-range-azimuth-ele)レーダーデータからの高分解能表現学習を容易にするように設計されている。
シングルステージの3Dオブジェクト検出器として、CenterRadarNetは、BEVオブジェクト分布の信頼性マップ、対応する3Dバウンディングボックス属性、および各ピクセルの外観埋め込みを推論する。
さまざまな駆動シナリオにおいて、CenterRadarNetは一貫性があり、堅牢なパフォーマンスを示し、その広範な適用性を強調している。
論文 参考訳(メタデータ) (2023-11-02T17:36:40Z) - EGFN: Efficient Geometry Feature Network for Fast Stereo 3D Object
Detection [51.52496693690059]
高速ステレオベース3Dオブジェクト検出器は高精度指向法よりもはるかに遅れている。
主な理由として,高速ステレオ法における3次元幾何学的特徴表現の欠如や不足があげられる。
提案された EGFN は、YOLOStsereo3D よりも5.16%向上し、mAP$_3d$ をわずか12msで上回った。
論文 参考訳(メタデータ) (2021-11-28T05:25:36Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RTS3D: Real-time Stereo 3D Detection from 4D Feature-Consistency
Embedding Space for Autonomous Driving [3.222802562733787]
RTS3Dというステレオ画像から効率的かつ高精度な3次元物体検出法を提案する。
KITTIベンチマークの実験は、RTS3Dがステレオ画像3D検出のための最初の真のリアルタイムシステムであることを示しています。
論文 参考訳(メタデータ) (2020-12-30T07:56:37Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。