論文の概要: FisheyePP4AV: A privacy-preserving method for autonomous vehicles on
fisheye camera images
- arxiv url: http://arxiv.org/abs/2309.03799v1
- Date: Thu, 7 Sep 2023 15:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 12:30:28.792831
- Title: FisheyePP4AV: A privacy-preserving method for autonomous vehicles on
fisheye camera images
- Title(参考訳): FisheyePP4AV: 魚眼カメラ画像による自動運転車のプライバシー保護手法
- Authors: Linh Trinh, Bach Ha, Tu Tran
- Abstract要約: 世界中の多くの地域では、公道で収集された大量のデータを自動運転に利用している。
実際の道路走行シナリオにおいて、歩行者の顔や付近の自動車ナンバープレートを検出し、匿名化するためには、効果的な解決策が緊急に必要である。
この研究では、私たちはプライバシー保護に特に注意を払っていますが、無人走行車によって撮影された魚眼カメラ写真のいくつかの法律に固執しています。
- 参考スコア(独自算出の注目度): 1.534667887016089
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In many parts of the world, the use of vast amounts of data collected on
public roadways for autonomous driving has increased. In order to detect and
anonymize pedestrian faces and nearby car license plates in actual road-driving
scenarios, there is an urgent need for effective solutions. As more data is
collected, privacy concerns regarding it increase, including but not limited to
pedestrian faces and surrounding vehicle license plates. Normal and fisheye
cameras are the two common camera types that are typically mounted on
collection vehicles. With complex camera distortion models, fisheye camera
images were deformed in contrast to regular images. It causes computer vision
tasks to perform poorly when using numerous deep learning models. In this work,
we pay particular attention to protecting privacy while yet adhering to several
laws for fisheye camera photos taken by driverless vehicles. First, we suggest
a framework for extracting face and plate identification knowledge from several
teacher models. Our second suggestion is to transform both the image and the
label from a regular image to fisheye-like data using a varied and realistic
fisheye transformation. Finally, we run a test using the open-source PP4AV
dataset. The experimental findings demonstrated that our model outperformed
baseline methods when trained on data from autonomous vehicles, even when the
data were softly labeled. The implementation code is available at our github:
https://github.com/khaclinh/FisheyePP4AV.
- Abstract(参考訳): 世界の多くの地域では、自動運転車のための公道で収集された膨大なデータの利用が増加している。
実際の走行シナリオで歩行者の顔や近くの車のナンバープレートを検出し、匿名化するために、効果的な解決策が急務である。
より多くのデータが収集されるにつれて、歩行者の顔や周囲の車両ナンバープレートを含むプライバシーに関する懸念が高まる。
通常と魚眼カメラは、通常、収集車に搭載される2種類の一般的なカメラである。
複雑なカメラ歪みモデルでは、魚眼カメラ画像は通常の画像とは対照的に変形した。
多数のディープラーニングモデルを使用すると、コンピュータビジョンタスクのパフォーマンスが低下する。
この研究では、プライバシ保護に特に注意を払っていますが、無人運転車によって撮影された魚眼カメラ写真のいくつかの法律に固執しています。
まず,複数の教師モデルから顔と板の識別知識を抽出する枠組みを提案する。
2つ目の提案は、画像とラベルの両方を通常の画像から魚眼のようなデータに変換することである。
最後に、オープンソースのPP4AVデータセットを用いてテストを実行する。
実験結果から,データにソフトラベルを付けた場合でも,自動運転車のデータに基づいてトレーニングを行った場合,モデルがベースライン法よりも優れていた。
実装コードは、github.com/khaclinh/FisheyePP4AV.comで利用可能です。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Generalized Object Detection on Fisheye Cameras for Autonomous Driving:
Dataset, Representations and Baseline [5.1450366450434295]
魚眼画像における物体検出のための配向境界ボックス,楕円,ジェネリックポリゴンなどのより良い表現について検討する。
魚眼歪みモデルに最適な特性を持つ曲面境界箱モデルを設計する。
これは、自律走行シナリオのための魚眼カメラにおける物体検出に関する最初の詳細な研究である。
論文 参考訳(メタデータ) (2020-12-03T18:00:16Z) - Universal Semantic Segmentation for Fisheye Urban Driving Images [6.56742346304883]
魚眼画像に変換するために,7自由度拡張法を提案する。
トレーニングプロセスでは、リチリニア画像を7つのDoFで魚眼画像に変換し、異なる位置、向き、焦点距離のカメラで撮影した魚眼画像をシミュレートする。
その結果, 異なる変形魚眼データに対するモデル精度とロバスト性を向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-01-31T11:19:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。