論文の概要: Towards Consistent Object Detection via LiDAR-Camera Synergy
- arxiv url: http://arxiv.org/abs/2405.01258v2
- Date: Fri, 9 Aug 2024 06:49:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 20:10:25.562835
- Title: Towards Consistent Object Detection via LiDAR-Camera Synergy
- Title(参考訳): LiDAR-Camera Synergyによる連続物体検出に向けて
- Authors: Kai Luo, Hao Wu, Kefu Yi, Kailun Yang, Wei Hao, Rongdong Hu,
- Abstract要約: 物体の位置を点雲と画像の両方で検出できる既存のモデルは存在しない。
本稿では,エンドツーエンドの一貫性オブジェクト検出(COD)アルゴリズムフレームワークを提案する。
本稿では,点雲と画像間の物体相関の精度を評価するために,新しい評価指標である一貫性精度(Consistency Precision)を提案する。
- 参考スコア(独自算出の注目度): 17.665362927472973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As human-machine interaction continues to evolve, the capacity for environmental perception is becoming increasingly crucial. Integrating the two most common types of sensory data, images, and point clouds, can enhance detection accuracy. Currently, there is no existing model capable of detecting an object's position in both point clouds and images while also determining their corresponding relationship. This information is invaluable for human-machine interactions, offering new possibilities for their enhancement. In light of this, this paper introduces an end-to-end Consistency Object Detection (COD) algorithm framework that requires only a single forward inference to simultaneously obtain an object's position in both point clouds and images and establish their correlation. Furthermore, to assess the accuracy of the object correlation between point clouds and images, this paper proposes a new evaluation metric, Consistency Precision (CP). To verify the effectiveness of the proposed framework, an extensive set of experiments has been conducted on the KITTI and DAIR-V2X datasets. The study also explored how the proposed consistency detection method performs on images when the calibration parameters between images and point clouds are disturbed, compared to existing post-processing methods. The experimental results demonstrate that the proposed method exhibits excellent detection performance and robustness, achieving end-to-end consistency detection. The source code will be made publicly available at https://github.com/xifen523/COD.
- Abstract(参考訳): 人間と機械の相互作用が進化し続けるにつれ、環境認識の能力はますます重要になりつつある。
最も一般的な2種類の感覚データ、画像、点雲を統合することで、検出精度を高めることができる。
現在、オブジェクトの位置を点雲と画像の両方で検出できる既存のモデルは存在せず、それに対応する関係も決定できる。
この情報は人間と機械の相互作用にとって重要であり、その強化の新たな可能性を提供する。
そこで本研究では,一対一のフォワード推論しか必要としないエンドツーエンドのオブジェクト検出(COD)アルゴリズムフレームワークを導入し,オブジェクトの位置を点群と画像の両方で同時に取得し,相関関係を確立する。
さらに,点雲と画像間の物体相関の精度を評価するために,新しい評価基準である Consistency Precision (CP) を提案する。
提案手法の有効性を検証するため,KITTI と DAIR-V2X のデータセットを用いて実験を行った。
また,既存の後処理法と比較して,画像と点雲の校正パラメータが乱される場合,画像に対して一貫性検出法がどう作用するかについても検討した。
実験の結果,提案手法は優れた検出性能とロバスト性を示し,エンドツーエンドの整合性検出を実現していることがわかった。
ソースコードはhttps://github.com/xifen523/COD.comで公開されている。
関連論文リスト
- Practical Video Object Detection via Feature Selection and Aggregation [18.15061460125668]
ビデオオブジェクト検出(VOD)は、オブジェクトの外観における高いフレーム間変動と、いくつかのフレームにおける多様な劣化を懸念する必要がある。
現代のアグリゲーション法のほとんどは、高い計算コストに苦しむ2段階検出器用に調整されている。
この研究は、特徴選択と集約の非常に単純だが強力な戦略を考案し、限界計算コストでかなりの精度を得る。
論文 参考訳(メタデータ) (2024-07-29T02:12:11Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - Quantity-Aware Coarse-to-Fine Correspondence for Image-to-Point Cloud
Registration [4.954184310509112]
Image-to-point cloud registrationは、RGBイメージと参照ポイントクラウドの間の相対カメラのポーズを決定することを目的としている。
個々の点と画素とのマッチングは、モダリティギャップによって本質的に曖昧である。
本稿では,局所点集合と画素パッチ間の量認識対応を捉える枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-14T03:55:54Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Comprehensive Analysis of the Object Detection Pipeline on UAVs [16.071349046409885]
まず、リモートセンシングアプリケーションにおける7つのパラメータ(量子化、圧縮、解像度、色モデル、画像歪み、ガンマ補正、追加チャネル)の影響を実験的に分析する。
すべてのパラメータが検出精度とデータスループットに等しく影響を与えるわけではなく、パラメータ間の適切な妥協により、軽量物体検出モデルの検出精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-01T09:30:01Z) - Summarize and Search: Learning Consensus-aware Dynamic Convolution for
Co-Saliency Detection [139.10628924049476]
人間は、まず、グループ全体のコンセンサス知識を要約し、その後、各画像内の対応するオブジェクトを検索することで、共相検出を行う。
以前の方法は、通常、最初のプロセスで堅牢性、スケーラビリティ、安定性を欠き、第2のプロセスでイメージ機能とコンセンサス機能を融合させる。
本稿では,新たなコンセンサスを考慮した動的畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-01T12:06:42Z) - Uncertainty-aware Joint Salient Object and Camouflaged Object Detection [43.01556978979627]
本論文では, 相反する情報を活用し, 対流物体検出と迷彩物体検出の両方の検出能力を高めるパラダイムを提案する。
この2つのタスクの矛盾する属性を明示的にモデル化する類似度測度モジュールを導入する。
両タスクのデータセットにおけるラベル付けの不確実性を考慮して,高次類似度測定とネットワーク信頼度推定を両立させる逆学習ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-06T16:05:10Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Attention-based Joint Detection of Object and Semantic Part [4.389917490809522]
我々のモデルは2つのFaster-RCNNモデルに基づいて作成され、それらの特徴を共有して両方の表現を拡張します。
PASCAL-Part 2010データセットの実験では、関節検出は物体検出と部分検出の両方を同時に改善できることが示された。
論文 参考訳(メタデータ) (2020-07-05T18:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。