論文の概要: Faraway-Frustum: Dealing with Lidar Sparsity for 3D Object Detection
using Fusion
- arxiv url: http://arxiv.org/abs/2011.01404v3
- Date: Sat, 27 Mar 2021 15:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:10:55.000285
- Title: Faraway-Frustum: Dealing with Lidar Sparsity for 3D Object Detection
using Fusion
- Title(参考訳): Faraway-Frustum:Fusion を用いた3次元物体検出のためのライダースペーシング
- Authors: Haolin Zhang, Dongfang Yang, Ekim Yurtsever, Keith A. Redmill and
\"Umit \"Ozg\"uner
- Abstract要約: 遠距離物体検出のための新しい融合戦略である遠距離フラストムを紹介する。
より近いオブジェクトには、学習したポイントクラウド表現を使用します。
本手法は,鳥の目視と3Dにおける遠距離物体検出において,最先端技術よりもかなり優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned pointcloud representations do not generalize well with an increase in
distance to the sensor. For example, at a range greater than 60 meters, the
sparsity of lidar pointclouds reaches to a point where even humans cannot
discern object shapes from each other. However, this distance should not be
considered very far for fast-moving vehicles: A vehicle can traverse 60 meters
under two seconds while moving at 70 mph. For safe and robust driving
automation, acute 3D object detection at these ranges is indispensable. Against
this backdrop, we introduce faraway-frustum: a novel fusion strategy for
detecting faraway objects. The main strategy is to depend solely on the 2D
vision for recognizing object class, as object shape does not change
drastically with an increase in depth, and use pointcloud data for object
localization in the 3D space for faraway objects. For closer objects, we use
learned pointcloud representations instead, following state-of-the-art. This
strategy alleviates the main shortcoming of object detection with learned
pointcloud representations. Experiments on the KITTI dataset demonstrate that
our method outperforms state-of-the-art by a considerable margin for faraway
object detection in bird's-eye-view and 3D. Our code is open-source and
publicly available: https://github.com/dongfang-steven-yang/faraway-frustum.
- Abstract(参考訳): 学習されたポイントクラウド表現は、センサーへの距離の増加とともにうまく一般化しない。
例えば、60メートルを超える範囲では、lidar pointcloudsのスパーシティは、人間が互いに物体の形を識別できない地点にまで達する。
しかし、この距離は時速70マイルで走行しながら2秒未満で60メートルを走行できるため、高速走行車両にはそれほど遠く考慮すべきではない。
安全でロバストな運転自動化には、これらの範囲での急性3dオブジェクト検出が不可欠である。
この背景に対して,我々は遠方の物体を検出するための新しい核融合戦略であるfaraway-frustumを紹介する。
主な戦略はオブジェクトクラスを認識するための2dビジョンのみに依存することであり、オブジェクトの形状は深さの増加によって大きく変化せず、遠く離れたオブジェクトの3d空間におけるオブジェクトのローカライズにpointcloudデータを使用する。
より近いオブジェクトには、学習したポイントクラウド表現を使用します。
この戦略は、学習されたpointcloud表現によるオブジェクト検出の主な欠点を軽減する。
KITTIデータセットを用いた実験により,鳥の目視と3Dにおける遠距離物体検出において,本手法は最先端技術よりもかなり優れていることが示された。
私たちのコードはオープンソースで公開されています。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - Far3Det: Towards Far-Field 3D Detection [67.38417186733487]
我々は、観測者から一定の距離を超える物体の遠距離3次元検出(Far3Det)の課題に焦点を当てる。
Far3Detは高速道路で動く自動運転車(AV)にとって特に重要である。
我々は,nuScenesデータセットからよく注釈付きシーンを抽出し,十分に注釈付き遠距離フィールド検証セットを導出する手法を開発した。
Far3Detの評価プロトコルを提案し,Far3Detの様々な3次元検出手法を提案する。
論文 参考訳(メタデータ) (2022-11-25T02:07:57Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Boosting 3D Object Detection via Object-Focused Image Fusion [33.616129400275156]
本稿では,画像情報をポイント特徴に融合するDeMFを提案する。
本稿では,SUN RGB-Dデータセットの課題について検討する。
論文 参考訳(メタデータ) (2022-07-21T16:32:05Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Multimodal Virtual Point 3D Detection [6.61319085872973]
ライダーをベースとしたセンサーは、現在の自動運転車を駆動する。
現在のLidarセンサーは、解像度とコストに関して従来のカラーカメラより20年遅れている。
本稿では,RGBセンサをLidarベースの3D認識にシームレスに融合する手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:58:01Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - OCM3D: Object-Centric Monocular 3D Object Detection [35.804542148335706]
モノクロ3次元物体検出のための新しい物体中心ボクセル表現を提案する。
具体的には、各オブジェクトの提案に基づいてボクセルを構築し、それらのサイズは点の3次元空間分布によって適応的に決定される。
本手法は、最先端の手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2021-04-13T09:15:40Z) - An Overview Of 3D Object Detection [21.159668390764832]
マルチクラスオブジェクト認識を行うために,RGBデータとポイントクラウドデータの両方を用いるフレームワークを提案する。
最近リリースされたnuScenesデータセット - 大規模なデータセットには多くのデータフォーマットが含まれています - をトレーニングし、提案したアーキテクチャを評価します。
論文 参考訳(メタデータ) (2020-10-29T14:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。