論文の概要: Instantaneous Perception of Moving Objects in 3D
- arxiv url: http://arxiv.org/abs/2405.02781v1
- Date: Sun, 5 May 2024 01:07:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 18:30:11.510601
- Title: Instantaneous Perception of Moving Objects in 3D
- Title(参考訳): 3次元における移動物体の瞬時知覚
- Authors: Di Liu, Bingbing Zhuang, Dimitris N. Metaxas, Manmohan Chandraker,
- Abstract要約: 周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
本研究では,物体点雲の局所的な占有率の達成を利用して形状を密度化し,水泳人工物の影響を軽減することを提案する。
広汎な実験は、標準的な3次元運動推定手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 86.38144604783207
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The perception of 3D motion of surrounding traffic participants is crucial for driving safety. While existing works primarily focus on general large motions, we contend that the instantaneous detection and quantification of subtle motions is equally important as they indicate the nuances in driving behavior that may be safety critical, such as behaviors near a stop sign of parking positions. We delve into this under-explored task, examining its unique challenges and developing our solution, accompanied by a carefully designed benchmark. Specifically, due to the lack of correspondences between consecutive frames of sparse Lidar point clouds, static objects might appear to be moving - the so-called swimming effect. This intertwines with the true object motion, thereby posing ambiguity in accurate estimation, especially for subtle motions. To address this, we propose to leverage local occupancy completion of object point clouds to densify the shape cue, and mitigate the impact of swimming artifacts. The occupancy completion is learned in an end-to-end fashion together with the detection of moving objects and the estimation of their motion, instantaneously as soon as objects start to move. Extensive experiments demonstrate superior performance compared to standard 3D motion estimation approaches, particularly highlighting our method's specialized treatment of subtle motions.
- Abstract(参考訳): 周囲の交通参加者の3次元運動の認識は、運転安全に不可欠である。
既存の研究は主に一般的な大きな動きに焦点をあてるが、駐車位置の停止標識付近の行動など、安全上重要な運転行動のニュアンスを示すため、微妙な動きの即時検出と定量化が重要であると我々は主張する。
私たちは、この未調査の課題を掘り下げ、そのユニークな課題を調べ、慎重に設計されたベンチマークとともにソリューションを開発しました。
特に、スパースライダー点雲の連続したフレーム間の対応が欠如しているため、静的な物体が動いているように見えるかもしれない。
これは真の物体の動きと干渉し、特に微妙な動きに対して、正確な推定において曖昧さを呈する。
そこで,本稿では,物体点雲の局所的占有化を利用して形状クエを密度化し,水泳アーティファクトの影響を軽減することを提案する。
占有完了は、移動物体の検出と動きの推定とともに、物体が動き始めると即座に、エンドツーエンドで学習される。
広汎な実験により,標準的な3次元動作推定手法よりも優れた性能を示し,特に微妙な動作を専門的に扱う方法を強調した。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - JSTR: Joint Spatio-Temporal Reasoning for Event-based Moving Object
Detection [17.3397709143323]
イベントベースの移動オブジェクト検出は、静的なバックグラウンドと移動オブジェクトが混在する難しいタスクである。
イベントベース移動物体検出のための新しい共同時間推論法を提案する。
論文 参考訳(メタデータ) (2024-03-12T09:22:52Z) - Spatio-Temporal Action Detection Under Large Motion [86.3220533375967]
大アクション下での動作検出における立方体認識機能アグリゲーションの性能について検討した。
本研究では,アクターをトラッキングし,各トラックに沿って時間的特徴アグリゲーションを行うことにより,大きな動作下でのアクター表現を強化することを提案する。
その結果,立方体認識機能アグリゲーションは,立方体認識ベースラインに比べて動作検出性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-09-06T06:55:26Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object
Removal for Static 3D Point Cloud Map Building [0.1474723404975345]
本稿では,pSeudo Occupancy-based dynamic object Removal の ERASOR, Egocentric RAtio という新しい静的マップ構築手法を提案する。
私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。
論文 参考訳(メタデータ) (2021-03-07T10:29:07Z) - Phase Space Reconstruction Network for Lane Intrusion Action Recognition [9.351931162958465]
本稿では,動作時系列分類のための新しいオブジェクトレベル位相空間再構成ネットワーク(PSRNet)を提案する。
私たちのpsrnetは最高精度98.0%に達し、既存のアクション認識アプローチを30%以上上回っています。
論文 参考訳(メタデータ) (2021-02-22T16:18:35Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z) - Drosophila-Inspired 3D Moving Object Detection Based on Point Clouds [22.850519892606716]
我々はショウジョウバエの浅部視覚神経経路に基づく運動検出装置を開発した。
この検出器は物体の動きに敏感であり、背景雑音を十分に抑制することができる。
次に、改良された3Dオブジェクト検出ネットワークを用いて、各提案の点雲を推定し、3D境界ボックスとオブジェクトカテゴリを効率的に生成する。
論文 参考訳(メタデータ) (2020-05-06T10:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。