論文の概要: Universal Semantic Segmentation for Fisheye Urban Driving Images
- arxiv url: http://arxiv.org/abs/2002.03736v2
- Date: Mon, 24 Aug 2020 13:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 05:46:17.480581
- Title: Universal Semantic Segmentation for Fisheye Urban Driving Images
- Title(参考訳): 魚眼都市運転画像のためのユニバーサルセマンティクスセグメンテーション
- Authors: Yaozu Ye, Kailun Yang, Kaite Xiang, Juan Wang and Kaiwei Wang
- Abstract要約: 魚眼画像に変換するために,7自由度拡張法を提案する。
トレーニングプロセスでは、リチリニア画像を7つのDoFで魚眼画像に変換し、異なる位置、向き、焦点距離のカメラで撮影した魚眼画像をシミュレートする。
その結果, 異なる変形魚眼データに対するモデル精度とロバスト性を向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 6.56742346304883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation is a critical method in the field of autonomous
driving. When performing semantic image segmentation, a wider field of view
(FoV) helps to obtain more information about the surrounding environment,
making automatic driving safer and more reliable, which could be offered by
fisheye cameras. However, large public fisheye datasets are not available, and
the fisheye images captured by the fisheye camera with large FoV comes with
large distortion, so commonly-used semantic segmentation model cannot be
directly utilized. In this paper, a seven degrees of freedom (DoF) augmentation
method is proposed to transform rectilinear image to fisheye image in a more
comprehensive way. In the training process, rectilinear images are transformed
into fisheye images in seven DoF, which simulates the fisheye images taken by
cameras of different positions, orientations and focal lengths. The result
shows that training with the seven-DoF augmentation can improve the model's
accuracy and robustness against different distorted fisheye data. This
seven-DoF augmentation provides a universal semantic segmentation solution for
fisheye cameras in different autonomous driving applications. Also, we provide
specific parameter settings of the augmentation for autonomous driving. At
last, we tested our universal semantic segmentation model on real fisheye
images and obtained satisfactory results. The code and configurations are
released at https://github.com/Yaozhuwa/FisheyeSeg.
- Abstract(参考訳): セマンティックセグメンテーションは自律運転の分野において重要な手法である。
セマンティックイメージセグメンテーションを行う場合、より広い視野(FoV)は周囲の環境に関するより多くの情報を得るのに役立つ。
しかし、大規模な魚眼データセットは利用できないため、魚眼カメラが捉えた魚眼画像は大きな歪みを伴うため、一般的に使用されるセマンティックセグメンテーションモデルは直接利用できない。
本稿では, 魚眼画像から魚眼画像へより包括的に変換するための7自由度拡張法を提案する。
トレーニングプロセスでは、リチニア画像を7つのDoFで魚眼画像に変換し、異なる位置、向き、焦点距離のカメラで撮影した魚眼画像をシミュレートする。
その結果, 異なる変形魚眼データに対するモデル精度とロバスト性を向上させることができることがわかった。
この7-DoF拡張は、異なる自動運転アプリケーションにおける魚眼カメラの普遍的なセマンティックセマンティクスソリューションを提供する。
また、自動運転のための拡張のパラメータ設定も提供する。
最後に,魚眼画像上での普遍的セマンティックセグメンテーションモデルを検証し,良好な結果を得た。
コードと設定はhttps://github.com/yaozhuwa/fisheyesegでリリースされている。
関連論文リスト
- RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - FisheyePP4AV: A privacy-preserving method for autonomous vehicles on
fisheye camera images [1.534667887016089]
世界中の多くの地域では、公道で収集された大量のデータを自動運転に利用している。
実際の道路走行シナリオにおいて、歩行者の顔や付近の自動車ナンバープレートを検出し、匿名化するためには、効果的な解決策が緊急に必要である。
この研究では、私たちはプライバシー保護に特に注意を払っていますが、無人走行車によって撮影された魚眼カメラ写真のいくつかの法律に固執しています。
論文 参考訳(メタデータ) (2023-09-07T15:51:31Z) - SimFIR: A Simple Framework for Fisheye Image Rectification with
Self-supervised Representation Learning [105.01294305972037]
自己教師型表現学習に基づく魚眼画像修正のためのフレームワークであるSimFIRを紹介する。
まず魚眼画像を複数のパッチに分割し,その表現を視覚変換器で抽出する。
下流修正作業における転送性能が著しく向上し、学習された表現の有効性が検証される。
論文 参考訳(メタデータ) (2023-08-17T15:20:17Z) - Sector Patch Embedding: An Embedding Module Conforming to The Distortion
Pattern of Fisheye Image [23.73394258521532]
本稿では,魚眼画像の歪みパターンに応じて,セクタパッチ埋め込み(SPE)と呼ばれる新しいパッチ埋め込み手法を提案する。
ViTとPVTの分類トップ1の精度は、それぞれ0.75%、SPEは2.8%向上した。
本手法は他のTransformerベースのモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2023-03-26T07:20:02Z) - FishDreamer: Towards Fisheye Semantic Completion via Unified Image
Outpainting and Segmentation [33.71849096992972]
本稿では,魚眼画像の密接なテクスチャ,構造,意味を,センサ・フィールド・オブ・ビュー(FoV)を超えても推測する,魚眼セマンティック・コンプリート(FSC)の新たな課題を提起する。
そこで本研究では,Pola-Aware Cross Attention Module (PCA) によって拡張されたViTsを利用して,密集したコンテキストを活用し,意味的に一貫性のあるコンテンツ生成をガイドする新しいFishDreamerを提案する。
論文 参考訳(メタデータ) (2023-03-24T07:34:25Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline [5.1450366450434295]
魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどのより良い表現について検討する。
魚眼歪みモデルに最適な特性を持つ曲面境界箱モデルを設計する。
これは、自律走行シナリオのための魚眼カメラにおける物体検出に関する最初の詳細な研究である。
論文 参考訳(メタデータ) (2020-12-03T18:00:16Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。