論文の概要: SSF-PAN: Semantic Scene Flow-Based Perception for Autonomous Navigation in Traffic Scenarios
- arxiv url: http://arxiv.org/abs/2501.16754v1
- Date: Tue, 28 Jan 2025 07:15:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:40:41.590853
- Title: SSF-PAN: Semantic Scene Flow-Based Perception for Autonomous Navigation in Traffic Scenarios
- Title(参考訳): SSF-PAN:交通シナリオにおける自動ナビゲーションのためのセマンティックフローに基づく知覚
- Authors: Yinqi Chen, Meiying Zhang, Qi Hao, Guang Zhou,
- Abstract要約: 提案したSSF-PANは、LiDARポイントクラウドベースのオブジェクト検出/ローカライゼーションとSLAMの機能を実現することができる。
SUScape-CARLAとKITTIデータセットおよびCARLAシミュレータを用いて検証されている。
実験結果から,提案手法はシーンフロー精度,移動物体検出精度,計算効率,自律走行効率の点で従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 10.303368447554591
- License:
- Abstract: Vehicle detection and localization in complex traffic scenarios pose significant challenges due to the interference of moving objects. Traditional methods often rely on outlier exclusions or semantic segmentations, which suffer from low computational efficiency and accuracy. The proposed SSF-PAN can achieve the functionalities of LiDAR point cloud based object detection/localization and SLAM (Simultaneous Localization and Mapping) with high computational efficiency and accuracy, enabling map-free navigation frameworks. The novelty of this work is threefold: 1) developing a neural network which can achieve segmentation among static and dynamic objects within the scene flows with different motion features, that is, semantic scene flow (SSF); 2) developing an iterative framework which can further optimize the quality of input scene flows and output segmentation results; 3) developing a scene flow-based navigation platform which can test the performance of the SSF perception system in the simulation environment. The proposed SSF-PAN method is validated using the SUScape-CARLA and the KITTI datasets, as well as on the CARLA simulator. Experimental results demonstrate that the proposed approach outperforms traditional methods in terms of scene flow computation accuracy, moving object detection accuracy, computational efficiency, and autonomous navigation effectiveness.
- Abstract(参考訳): 複雑な交通シナリオにおける車両検出と位置決めは、移動物体の干渉により重大な課題を引き起こす。
伝統的な手法は、計算効率と精度の低下に苦しむ、外れ値の排除やセマンティックセグメンテーションに頼っていることが多い。
提案したSSF-PANは、LiDARポイントクラウドに基づくオブジェクト検出/ローカライゼーションとSLAM(Simultaneous Localization and Mapping)を高い計算効率と精度で実現し、マップフリーナビゲーションフレームワークを実現する。
この作品の斬新さは3倍です。
1)シーン内の静的および動的オブジェクト間のセグメンテーションを実現するニューラルネットワークの開発。
2)入力シーンフローの品質を最適化し,セグメンテーション結果を出力する反復的枠組みの開発。
3)シミュレーション環境におけるSSF認識システムの性能を検証できるシーンフローベースのナビゲーションプラットフォームの開発。
提案手法は,SUScape-CARLAとKITTIデータセット,およびCARLAシミュレータを用いて検証した。
実験結果から,提案手法はシーンフロー計算精度,移動物体検出精度,計算効率,自律走行効率の点で従来の手法よりも優れていた。
関連論文リスト
- Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - SeFlow: A Self-Supervised Scene Flow Method in Autonomous Driving [18.88208422580103]
連続したLiDARスキャンで各点における3次元運動を予測する。
現在の最先端の手法は、シーンフローネットワークをトレーニングするために注釈付きデータを必要とする。
本研究では,効率的な動的分類を学習に基づくシーンフローパイプラインに統合するSeFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T18:22:54Z) - ICP-Flow: LiDAR Scene Flow Estimation with ICP [2.9290232815049926]
シーンフローは、近くの時間ステップで自動運転車が捉えた2つのLiDARスキャン間の3D運動を特徴付ける。
我々は,学習不要なフロー推定器であるICP-Flowを提案し,オブジェクトをスキャン上で関連付け,局所的な剛性変換を推定する。
教師付きモデルを含む最先端のベースラインをデータセット上で上回り、Argoverse-v2とnuScenesで競合的に実行します。
論文 参考訳(メタデータ) (2024-02-27T09:41:59Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - DetFlowTrack: 3D Multi-object Tracking based on Simultaneous
Optimization of Object Detection and Scene Flow Estimation [23.305159598648924]
オブジェクト検出とシーンフロー推定の同時最適化に基づく3次元MOTフレームワークを提案する。
特に回転を伴う動きの場合のより正確なシーンフローラベルについて,ボックス変換に基づくシーンフローグラウンド真理計算法を提案する。
KITTI MOTデータセットの実験結果は、回転を伴う極運動下での最先端とロバスト性に対して競合する結果を示した。
論文 参考訳(メタデータ) (2022-03-04T07:06:47Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。