論文の概要: Expandable YOLO: 3D Object Detection from RGB-D Images
- arxiv url: http://arxiv.org/abs/2006.14837v1
- Date: Fri, 26 Jun 2020 07:32:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:47:32.457484
- Title: Expandable YOLO: 3D Object Detection from RGB-D Images
- Title(参考訳): 拡張可能なYOLO:RGB-D画像からの3次元物体検出
- Authors: Masahiro Takahashi, Alessandro Moro, Yonghoon Ji and Kazunori Umeda
- Abstract要約: 本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
- 参考スコア(独自算出の注目度): 64.14512458954344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims at constructing a light-weight object detector that inputs a
depth and a color image from a stereo camera. Specifically, by extending the
network architecture of YOLOv3 to 3D in the middle, it is possible to output in
the depth direction. In addition, Intersection over Uninon (IoU) in 3D space is
introduced to confirm the accuracy of region extraction results. In the field
of deep learning, object detectors that use distance information as input are
actively studied for utilizing automated driving. However, the conventional
detector has a large network structure, and the real-time property is impaired.
The effectiveness of the detector constructed as described above is verified
using datasets. As a result of this experiment, the proposed model is able to
output 3D bounding boxes and detect people whose part of the body is hidden.
Further, the processing speed of the model is 44.35 fps.
- Abstract(参考訳): 本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的としている。
具体的には、YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
さらに、領域抽出結果の精度を確認するために、3次元空間におけるUninon(IoU)の切断を導入する。
深層学習の分野では、距離情報を入力として利用する物体検出器を積極的に研究し、自動運転を利用する。
しかし、従来の検出器は大きなネットワーク構造を持ち、リアルタイム性が損なわれている。
上記のように構築した検出器の有効性をデータセットを用いて検証する。
この実験の結果,提案モデルは3次元拘束箱を出力し,身体の一部が隠されている人を検出することができる。
さらに、モデルの処理速度は44.35fpsである。
関連論文リスト
- OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - Perspective-aware Convolution for Monocular 3D Object Detection [2.33877878310217]
画像の長距離依存性をキャプチャする新しい視点対応畳み込み層を提案する。
画像画素ごとの深度軸に沿った特徴を抽出するために畳み込みカーネルを強制することにより、パースペクティブ情報をネットワークアーキテクチャに組み込む。
我々は、KITTI3Dデータセットの性能向上を実証し、簡単なベンチマークで平均23.9%の精度を達成した。
論文 参考訳(メタデータ) (2023-08-24T17:25:36Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - Boosting Monocular 3D Object Detection with Object-Centric Auxiliary
Depth Supervision [13.593246617391266]
本稿では,RGB画像に基づく3D検出器を,深度推定タスクに類似した深度予測損失で共同でトレーニングすることにより,RGB画像に基づく3D検出器の強化手法を提案する。
新たな物体中心深度予測損失は,3次元物体検出において重要な前景物体周辺の深度に焦点をあてる。
我々の深度回帰モデルは、物体の3次元信頼度を表すために、深度の不確かさを予測するためにさらに訓練される。
論文 参考訳(メタデータ) (2022-10-29T11:32:28Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。