論文の概要: Adapting CNNs for Fisheye Cameras without Retraining
- arxiv url: http://arxiv.org/abs/2404.08187v1
- Date: Fri, 12 Apr 2024 01:36:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 16:05:17.487012
- Title: Adapting CNNs for Fisheye Cameras without Retraining
- Title(参考訳): 魚眼カメラ用CNNのリトレーニングなし適応
- Authors: Ryan Griffiths, Donald G. Dansereau,
- Abstract要約: 多くの応用において、より広い視野の魚眼カメラのような従来のカメラを使う方が有益である。
問題は、これらの大きなFOV画像は、元の画像のかなりの刈り取らなければ、視点投影に修正できないことである。
我々は、事前学習された畳み込みネットワークを新しい非パースペクティブな画像で操作するための新しいアプローチであるRectified Convolutionsを提案する。
- 参考スコア(独自算出の注目度): 3.683202928838613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The majority of image processing approaches assume images are in or can be rectified to a perspective projection. However, in many applications it is beneficial to use non conventional cameras, such as fisheye cameras, that have a larger field of view (FOV). The issue arises that these large-FOV images can't be rectified to a perspective projection without significant cropping of the original image. To address this issue we propose Rectified Convolutions (RectConv); a new approach for adapting pre-trained convolutional networks to operate with new non-perspective images, without any retraining. Replacing the convolutional layers of the network with RectConv layers allows the network to see both rectified patches and the entire FOV. We demonstrate RectConv adapting multiple pre-trained networks to perform segmentation and detection on fisheye imagery from two publicly available datasets. Our approach requires no additional data or training, and operates directly on the native image as captured from the camera. We believe this work is a step toward adapting the vast resources available for perspective images to operate across a broad range of camera geometries.
- Abstract(参考訳): 画像処理アプローチの大多数は、画像が入っているか、あるいは視点投影に修正可能であると仮定している。
しかし、多くの応用において、より広い視野(FOV)を持つ魚眼カメラのような従来のカメラを使う方が有益である。
問題は、これらの大きなFOV画像は、元の画像のかなりの刈り取らなければ、視点投影に修正できないことである。
この問題に対処するために、我々は、事前学習された畳み込みネットワークを新たな非パースペクティブなイメージで運用するための新しいアプローチであるRectified Convolutions (RectConv)を提案する。
RectConvレイヤでネットワークの畳み込みレイヤをリプレースすることで、ネットワークは修正パッチとFOV全体を見ることができる。
RectConvは、複数のトレーニング済みネットワークに適応して、2つの公開データセットから魚眼画像のセグメンテーションと検出を行う。
このアプローチでは、追加のデータやトレーニングは必要とせず、カメラからキャプチャしたネイティブイメージを直接操作します。
この研究は、視野画像に利用可能な膨大なリソースを広い範囲のカメラジオメトリに適応させるための一歩だと私たちは考えています。
関連論文リスト
- Convolution kernel adaptation to calibrated fisheye [45.90423821963144]
畳み込み核は畳み込みニューラルネットワーク(CNN)の基本構造成分である
本稿では,カメラのキャリブレーションを利用してコンボリューションカーネルを変形させ,歪みに適応させる手法を提案する。
小型のデータセットで簡単な微調整を施すことで,漁獲魚のネットワーク性能が向上することを示す。
論文 参考訳(メタデータ) (2024-02-02T14:44:50Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - FisheyeHDK: Hyperbolic Deformable Kernel Learning for Ultra-Wide
Field-of-View Image Recognition [0.3655021726150367]
狭視野(FoV)イメージに基づいてトレーニングされた従来の畳み込みニューラルネットワーク(CNN)は、オブジェクト認識タスクの最先端のアプローチである。
いくつかの手法は、変形可能なカーネルを学習することで、超広帯域FoV画像へのCNNの適応を提案した。
非ユークリッド空間における畳み込みカーネルの形状の学習は、既存の変形可能なカーネル法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-14T16:37:54Z) - Unsupervised Domain Adaptation for Video Semantic Segmentation [91.30558794056054]
セマンティックセグメンテーションのための教師なしドメイン適応は、シミュレーションからリアルに知識を伝達できるため、大きな人気を集めている。
本研究では,ビデオセマンティック・アプローチのための教師なし領域適応という,このタスクの新たなビデオ拡張について述べる。
提案手法は,画像レベル (mIoU) と映像レベル (VPQ) の両方において,従来の画像ベースUDA手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-07-23T07:18:20Z) - Recognizing Actions in Videos from Unseen Viewpoints [80.6338404141284]
本研究では,現在の畳み込みニューラルネットワークモデルでは,トレーニングデータに存在しないカメラ視点からの動作を認識できないことを示す。
視認不能な認識のための新しいデータセットを導入し、視点不変表現を学習するアプローチ能力を示す。
論文 参考訳(メタデータ) (2021-03-30T17:17:54Z) - Adaptable Deformable Convolutions for Semantic Segmentation of Fisheye
Images in Autonomous Driving Systems [4.231909978425546]
標準画像に訓練されたCNNが魚眼画像に容易に適応できることを示した。
我々の適応プロトコルは主に、既存の層の上に変形可能な等価性を使用することで畳み込みのサポートを変更することに依存している。
論文 参考訳(メタデータ) (2021-02-19T22:47:44Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - BEV-Seg: Bird's Eye View Semantic Segmentation Using Geometry and
Semantic Point Cloud [21.29622194272066]
我々は,BEVにおける画素単位のセマンティックセマンティックセマンティックセマンティクスを予測するタスクである,鳥の目の意味セマンティクスセマンティクスに着目した。
このタスクには、サイドビューからバードビューへのビュー変換と、未確認領域への学習の移行という2つの大きな課題がある。
新たな2段階認識パイプラインは,画素深度を明示的に予測し,効率よく画素セマンティクスと組み合わせる。
論文 参考訳(メタデータ) (2020-06-19T23:30:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。