論文の概要: Adaptable Deformable Convolutions for Semantic Segmentation of Fisheye
Images in Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2102.10191v1
- Date: Fri, 19 Feb 2021 22:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 05:17:00.583477
- Title: Adaptable Deformable Convolutions for Semantic Segmentation of Fisheye
Images in Autonomous Driving Systems
- Title(参考訳): 自律走行システムにおける魚眼画像のセマンティックセグメンテーションのための適応的変形可能な畳み込み
- Authors: Cl\'ement Playout, Ola Ahmad, Freddy Lecue and Farida Cheriet
- Abstract要約: 標準画像に訓練されたCNNが魚眼画像に容易に適応できることを示した。
我々の適応プロトコルは主に、既存の層の上に変形可能な等価性を使用することで畳み込みのサポートを変更することに依存している。
- 参考スコア(独自算出の注目度): 4.231909978425546
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advanced Driver-Assistance Systems rely heavily on perception tasks such as
semantic segmentation where images are captured from large field of view (FoV)
cameras. State-of-the-art works have made considerable progress toward applying
Convolutional Neural Network (CNN) to standard (rectilinear) images. However,
the large FoV cameras used in autonomous vehicles produce fisheye images
characterized by strong geometric distortion. This work demonstrates that a CNN
trained on standard images can be readily adapted to fisheye images, which is
crucial in real-world applications where time-consuming real-time data
transformation must be avoided. Our adaptation protocol mainly relies on
modifying the support of the convolutions by using their deformable equivalents
on top of pre-existing layers. We prove that tuning an optimal support only
requires a limited amount of labeled fisheye images, as a small number of
training samples is sufficient to significantly improve an existing model's
performance on wide-angle images. Furthermore, we show that finetuning the
weights of the network is not necessary to achieve high performance once the
deformable components are learned. Finally, we provide an in-depth analysis of
the effect of the deformable convolutions, bringing elements of discussion on
the behavior of CNN models.
- Abstract(参考訳): 高度なドライバアシスタンスシステムは、大きな視野(FoV)カメラから画像がキャプチャされるセマンティックセグメンテーションなどの知覚タスクに大きく依存します。
最新の研究は、convolutional neural network(cnn)を標準画像(rectilinear)に適用する上で大きな進歩を遂げている。
しかし、自動運転車で使用される大型FoVカメラは、強い幾何学的歪みを特徴とする魚眼画像を生成します。
この研究は、標準的な画像に基づいてトレーニングされたCNNが魚眼画像に容易に適応できることを示し、これはリアルタイムデータ変換の時間を要する現実のアプリケーションでは不可欠である。
我々の適応プロトコルは主に、既存の層の上に変形可能な等価性を使用することで畳み込みのサポートを変更することに依存している。
最適支援の調整にはラベル付き魚眼画像の限られた量しか必要とせず、少数のトレーニングサンプルは広角画像上での既存のモデルの性能を著しく向上させるのに十分であることを示す。
さらに、変形可能なコンポーネントが学習されると、ネットワークの重みを微調整して高性能を達成する必要はありません。
最後に,変形可能な畳み込みの効果を詳細に分析し,cnnモデルの挙動に関する議論の要素について述べる。
関連論文リスト
- DarSwin-Unet: Distortion Aware Encoder-Decoder Architecture [13.412728770638465]
広角レンズの歪みに適応するエンコーダデコーダモデルを提案する。
分類タスクのみを実行するオリジナルのモデルとは対照的に,画素レベルのタスク用に設計されたU-NetアーキテクチャDarSwin-Unetを導入する。
提案手法により,広角魚眼画像における画素レベルのタスクを処理できるモデル能力が向上し,実世界への応用がより効果的になる。
論文 参考訳(メタデータ) (2024-07-24T14:52:18Z) - Deformable Convolution Based Road Scene Semantic Segmentation of Fisheye Images in Autonomous Driving [4.720434481945155]
本研究では,近代的変形可能な畳み込みニューラルネットワーク(DCNN)のセマンティックセグメンテーションタスクへの応用について検討する。
実験では,WoodScapeの魚眼画像データセットを10種類の異なるクラスに分割し,複雑な空間関係を捉えるデフォルマブルネットワークの能力を評価する。
変形可能なCNNの統合によるmIoUスコアの大幅な改善は、魚眼画像に存在する幾何歪みを扱う上での有効性を示す。
論文 参考訳(メタデータ) (2024-07-23T17:02:24Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Adapting CNNs for Fisheye Cameras without Retraining [3.683202928838613]
多くの応用において、より広い視野の魚眼カメラのような従来のカメラを使う方が有益である。
問題は、これらの大きなFOV画像は、元の画像のかなりの刈り取らなければ、視点投影に修正できないことである。
我々は、事前学習された畳み込みネットワークを新しい非パースペクティブな画像で操作するための新しいアプローチであるRectified Convolutionsを提案する。
論文 参考訳(メタデータ) (2024-04-12T01:36:00Z) - Convolution kernel adaptation to calibrated fisheye [45.90423821963144]
畳み込み核は畳み込みニューラルネットワーク(CNN)の基本構造成分である
本稿では,カメラのキャリブレーションを利用してコンボリューションカーネルを変形させ,歪みに適応させる手法を提案する。
小型のデータセットで簡単な微調整を施すことで,漁獲魚のネットワーク性能が向上することを示す。
論文 参考訳(メタデータ) (2024-02-02T14:44:50Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - SimFIR: A Simple Framework for Fisheye Image Rectification with
Self-supervised Representation Learning [105.01294305972037]
自己教師型表現学習に基づく魚眼画像修正のためのフレームワークであるSimFIRを紹介する。
まず魚眼画像を複数のパッチに分割し,その表現を視覚変換器で抽出する。
下流修正作業における転送性能が著しく向上し、学習された表現の有効性が検証される。
論文 参考訳(メタデータ) (2023-08-17T15:20:17Z) - Spherical Image Inpainting with Frame Transformation and Data-driven
Prior Deep Networks [13.406134708071345]
本研究では,深層学習に基づく正規化器を用いた球面画像の塗布作業に焦点をあてる。
我々は,高速な球面ハールフレームレット変換を採用し,フレームレット変換のスパース性仮定に基づく新しい最適化フレームワークを開発した。
提案アルゴリズムは、損傷した球面画像を大幅に復元し、深層学習デノイザとプラグ・アンド・プレイモデルを用いて、純粋に最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-09-29T07:51:27Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。