論文の概要: Where to drive: free space detection with one fisheye camera
- arxiv url: http://arxiv.org/abs/2011.05822v1
- Date: Wed, 11 Nov 2020 14:36:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:26:04.721409
- Title: Where to drive: free space detection with one fisheye camera
- Title(参考訳): 運転場所:魚眼カメラ1台で自由な空間検出
- Authors: Tobias Scheck, Adarsh Mallandur, Christian Wiede, Gangolf Hirtz
- Abstract要約: 本稿では,Unity3Dに基づく合成学習データの利用を提案する。
仮想魚眼カメラを作成するために5パスのアルゴリズムが使用される。
以上の結果から,合成魚眼画像が深層学習に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 1.7499351967216341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development in the field of autonomous driving goes hand in hand with
ever new developments in the field of image processing and machine learning
methods. In order to fully exploit the advantages of deep learning, it is
necessary to have sufficient labeled training data available. This is
especially not the case for omnidirectional fisheye cameras. As a solution, we
propose in this paper to use synthetic training data based on Unity3D. A
five-pass algorithm is used to create a virtual fisheye camera. This synthetic
training data is evaluated for the application of free space detection for
different deep learning network architectures. The results indicate that
synthetic fisheye images can be used in deep learning context.
- Abstract(参考訳): 自動運転の分野での開発は、画像処理と機械学習の分野における新たな発展と相まって進んでいる。
ディープラーニングの利点を十分に活用するためには,十分なラベル付きトレーニングデータが必要である。
これは、全方位魚眼カメラには特に当てはまらない。
本稿では,Unity3Dをベースとした合成トレーニングデータの利用を提案する。
仮想魚眼カメラの作成には5パスアルゴリズムが用いられる。
この合成トレーニングデータは、異なるディープラーニングネットワークアーキテクチャに対する自由空間検出の適用のために評価される。
その結果,人工魚眼画像はディープラーニングの文脈で使用できることがわかった。
関連論文リスト
- Motion Degeneracy in Self-supervised Learning of Elevation Angle
Estimation for 2D Forward-Looking Sonar [4.683630397028384]
本研究は, 合成画像を用いた事前学習を行なわずに, 高度角推定の安定な自己教師付き学習を実現することを目的とする。
まず,主監督信号に関連する2次元前方ソナーの運動場を解析する。
論文 参考訳(メタデータ) (2023-07-30T08:06:11Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images [2.187613144178315]
キーポイントの検出と記述はコンピュータビジョンシステムで一般的に使用されるビルディングブロックである。
SuperPointは、ホモグラフィー推定における最先端の結果を達成した自己監視型キーポイント検出器およびディスクリプタです。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-27T11:26:34Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - PennSyn2Real: Training Object Recognition Models without Human Labeling [12.923677573437699]
我々はPennSyn2Realを提案する。20種類以上のマイクロエアロビー(MAV)の10万以上の4K画像からなる合成データセットである。
このデータセットは、MAV検出や分類などのハイレベルコンピュータビジョンタスクのための任意の数のトレーニングイメージを生成するために使用することができる。
このフレームワークを用いて生成された合成データは,検出やセグメンテーションといった一般的なオブジェクト認識タスクに対して,CNNモデルをトレーニングするために直接利用できることを示す。
論文 参考訳(メタデータ) (2020-09-22T02:53:40Z) - Deep Traffic Sign Detection and Recognition Without Target Domain Real
Images [52.079665469286496]
本稿では,ターゲットドメインからの実際の画像を必要としない新しいデータベース生成手法と,(ii)交通標識のテンプレートを提案する。
この方法は、実際のデータでトレーニングを克服することではなく、実際のデータが利用できない場合に互換性のある代替手段になることを目的としている。
大規模なデータセットでは、完全に合成されたデータセットによるトレーニングは、実際のデータセットとトレーニングのパフォーマンスにほぼ一致する。
論文 参考訳(メタデータ) (2020-07-30T21:06:47Z) - DeepURL: Deep Pose Estimation Framework for Underwater Relative
Localization [21.096166727043077]
本研究では,自律型水中車両(AUV)の6次元相対姿勢を1つの画像から決定するためのリアルタイム深層学習手法を提案する。
画像間翻訳ネットワークを用いて、レンダリングされた実画像間のギャップを埋めて、トレーニング用合成画像を生成する。
論文 参考訳(メタデータ) (2020-03-11T21:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。