論文の概要: FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images
- arxiv url: http://arxiv.org/abs/2103.00191v1
- Date: Sat, 27 Feb 2021 11:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:07:45.480679
- Title: FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images
- Title(参考訳): Fisheye SuperPoint: 魚眼画像のキーポイント検出と説明ネットワーク
- Authors: Anna Konrad, Ciar\'an Eising, Ganesh Sistu, John McDonald, Rudi
Villing, Senthil Yogamani
- Abstract要約: キーポイントの検出と記述はコンピュータビジョンシステムで一般的に使用されるビルディングブロックである。
SuperPointは、ホモグラフィー推定における最先端の結果を達成した自己監視型キーポイント検出器およびディスクリプタです。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
- 参考スコア(独自算出の注目度): 2.187613144178315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keypoint detection and description is a commonly used building block in
computer vision systems particularly for robotics and autonomous driving.
Recently CNN based approaches have surpassed classical methods in a number of
perception tasks. However, the majority of techniques to date have focused on
standard cameras with little consideration given to fisheye cameras which are
commonly used in autonomous driving. In this paper, we propose a novel training
and evaluation pipeline for fisheye images. We make use of SuperPoint as our
baseline which is a self-supervised keypoint detector and descriptor that has
achieved state-of-the-art results on homography estimation. We introduce a
fisheye adaptation pipeline to enable training on undistorted fisheye images.
We evaluate the performance on the HPatches benchmark, and, by introducing a
fisheye based evaluation methods for detection repeatability and descriptor
matching correctness on the Oxford RobotCar datasets.
- Abstract(参考訳): キーポイントの検出と説明は、特にロボットと自動運転のためのコンピュータビジョンシステムの一般的なビルディングブロックです。
最近のcnnベースのアプローチは、多くの知覚タスクで古典的な手法を上回っている。
しかし、これまでの技術の多くは、自動運転で一般的に使用される魚眼カメラにはほとんど考慮されていない標準カメラに焦点が当てられている。
本稿では,魚眼画像のための新しい訓練・評価パイプラインを提案する。
我々は,自己教師付きキーポイント検出器とディスクリプタであるSuperPointをベースラインとして,ホモグラフィー推定の最先端結果を達成している。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
HPatchesベンチマークのパフォーマンスを評価し、オックスフォードロボットカーデータセットの再現性および記述子マッチングの正確性を検出するための魚眼に基づく評価方法を導入する。
関連論文リスト
- RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - SimFIR: A Simple Framework for Fisheye Image Rectification with
Self-supervised Representation Learning [105.01294305972037]
自己教師型表現学習に基づく魚眼画像修正のためのフレームワークであるSimFIRを紹介する。
まず魚眼画像を複数のパッチに分割し,その表現を視覚変換器で抽出する。
下流修正作業における転送性能が著しく向上し、学習された表現の有効性が検証される。
論文 参考訳(メタデータ) (2023-08-17T15:20:17Z) - Streaming Object Detection on Fisheye Cameras for Automatic Parking [0.0]
本稿では,未来を予測し,時間ラグ問題を緩和するデュアルフロー認識モジュールを備えたリアルタイム検出フレームワークを提案する。
標準バウンディングボックスは、魚眼カメラの強い半径歪みのため、魚眼カメラ画像の物体には適さない。
本稿では,物体の簡易かつ高精度な表現法であるボックスの角度を回帰する新しい周期的角度損失関数を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:30:25Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Pixel-level Correspondence for Self-Supervised Learning from Video [56.24439897867531]
ピクセルレベルの対応 (PiCo) はビデオから高密度なコントラスト学習を行う方法である。
標準的なベンチマークでPiCoを検証し、複数の高密度予測タスクで自己教師付きベースラインを上回ります。
論文 参考訳(メタデータ) (2022-07-08T12:50:13Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Fisheye Lens Camera based Autonomous Valet Parking System [3.461121828373003]
本稿では,最も普及しているセンサであるカメラのみを利用した,効率的な自動駐車システムを提案する。
ピンホールカメラに比べて視野が広い魚眼カメラを使用しています。
論文 参考訳(メタデータ) (2021-04-27T11:36:03Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Where to drive: free space detection with one fisheye camera [1.7499351967216341]
本稿では,Unity3Dに基づく合成学習データの利用を提案する。
仮想魚眼カメラを作成するために5パスのアルゴリズムが使用される。
以上の結果から,合成魚眼画像が深層学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-11-11T14:36:45Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - SilhoNet-Fisheye: Adaptation of A ROI Based Object Pose Estimation
Network to Monocular Fisheye Images [15.573003283204958]
本稿では、ROIに基づく6Dオブジェクトのポーズ推定手法を魚眼画像に適用するための新しいフレームワークを提案する。
また、6Dオブジェクトポーズと2Dバウンディングボックスアノテーションを備えたUWHandlesと呼ばれる魚眼画像データセットも提供しています。
論文 参考訳(メタデータ) (2020-02-27T19:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。