論文の概要: Field-of-View IoU for Object Detection in 360{\deg} Images
- arxiv url: http://arxiv.org/abs/2202.03176v1
- Date: Mon, 7 Feb 2022 14:01:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-02-08 16:37:00.127579
- Title: Field-of-View IoU for Object Detection in 360{\deg} Images
- Title(参考訳): 360{\deg}画像における物体検出のための視野IoU
- Authors: Miao Cao, Satoshi Ikehata, and Kiyoharu Aizawa
- Abstract要約: 本研究では,FoV-IoU(FoV-IoU)と360deg画像における物体検出のための360Augmentationという2つの基本手法を提案する。
FoV-IoUは2つの視野境界ボックスの交叉結合を球面画像で計算し、トレーニング、推論、評価に使用できる。
360Augmentationは、球面イメージをランダムに回転させ、球面から平面への投影によるバイアスを解決する360degオブジェクト検出タスクに特有のデータ拡張技術である。
- 参考スコア(独自算出の注目度): 36.72543749626039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 360{\deg} cameras have gained popularity over the last few years. In this
paper, we propose two fundamental techniques -- Field-of-View IoU (FoV-IoU) and
360Augmentation for object detection in 360{\deg} images. Although most object
detection neural networks designed for the perspective images are applicable to
360{\deg} images in equirectangular projection (ERP) format, their performance
deteriorates owing to the distortion in ERP images. Our method can be readily
integrated with existing perspective object detectors and significantly
improves the performance. The FoV-IoU computes the intersection-over-union of
two Field-of-View bounding boxes in a spherical image which could be used for
training, inference, and evaluation while 360Augmentation is a data
augmentation technique specific to 360{\deg} object detection task which
randomly rotates a spherical image and solves the bias due to the
sphere-to-plane projection. We conduct extensive experiments on the 360indoor
dataset with different types of perspective object detectors and show the
consistent effectiveness of our method.
- Abstract(参考訳): 360{\deg}カメラはここ数年で人気を集めている。
本稿では,FoV-IoU(Field-of-View IoU)と360{\deg}画像における物体検出のための360Augmentationという2つの基本手法を提案する。
視点画像のために設計されたほとんどの物体検出ニューラルネットワークは、等方射影(ERP)フォーマットの360{\deg}画像に適用できるが、ERP画像の歪みにより性能が劣化する。
本手法は既存の対象検出器と容易に統合でき,性能が大幅に向上する。
FoV-IoUは、球面像をランダムに回転させ、球面と平面の投影によるバイアスを解消する360{\deg}オブジェクト検出タスクに特有のデータ拡張技術であり、トレーニング、推論、評価に使用可能な球面画像内の2つの視野境界ボックスの交叉結合を計算する。
様々な視点物体検出器を用いた360度インドアデータセットの広範な実験を行い,提案手法の有効性を示す。
関連論文リスト
- Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - Distortion-aware Transformer in 360{\deg} Salient Object Detection [44.74647420381127]
本稿では,歪み問題に対処するトランスフォーマーモデルDATFormerを提案する。
360degデータの特徴を利用するために,学習可能な関係行列を提案する。
我々のモデルは既存の2D SOD(salient object detection)法と360 SOD法より優れている。
論文 参考訳(メタデータ) (2023-08-07T07:28:24Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - View-aware Salient Object Detection for 360{\deg} Omnidirectional Image [33.43250302656753]
等角射影(ERP)にオブジェクトレベルの画素ワイドアノテーションを付加した大規模360度ISODデータセットを構築した。
そこで本研究では,SAVT(Sample Adaptive View Transformer)モジュールを用いたビューアウェア・サリエント物体検出手法を提案する。
論文 参考訳(メタデータ) (2022-09-27T07:44:08Z) - Towards Model Generalization for Monocular 3D Object Detection [57.25828870799331]
我々は,Mono3Dオブジェクト検出に有効な統合カメラ一般化パラダイム(CGP)を提案する。
また,インスタンスレベルの拡張によりギャップを埋める2D-3D幾何一貫性オブジェクトスケーリング戦略(GCOS)を提案する。
DGMono3Dと呼ばれる手法は、評価された全てのデータセットに対して顕著な性能を達成し、SoTAの教師なしドメイン適応スキームを上回ります。
論文 参考訳(メタデータ) (2022-05-23T23:05:07Z) - BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View [117.44028458220427]
自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T15:08:40Z) - A Fixation-based 360{\deg} Benchmark Dataset for Salient Object
Detection [21.314578493964333]
パノラマコンテンツ中の固定予測(FP)は、仮想現実(VR)アプリケーションの普及傾向とともに広く研究されている。
静止物体検出(SOD)は、実際のシーンを表すデータセットが欠如しているため、360度画像ではめったに探索されていない。
論文 参考訳(メタデータ) (2020-01-22T11:16:39Z) - Visual Question Answering on 360{\deg} Images [96.00046925811515]
VQA 360は、360度画像上で視覚的な質問に答える新しいタスクである。
最初のVQA 360データセットを収集し、様々な質問タイプに対して、約17,000の現実世界の画像検索用トリプルを含む。
論文 参考訳(メタデータ) (2020-01-10T08:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。