論文の概要: Image-to-Image Translation-based Data Augmentation for Robust EV
Charging Inlet Detection
- arxiv url: http://arxiv.org/abs/2112.05290v1
- Date: Fri, 10 Dec 2021 01:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:52:30.896088
- Title: Image-to-Image Translation-based Data Augmentation for Robust EV
Charging Inlet Detection
- Title(参考訳): 画像から画像への変換に基づくロバストEV充電入口検出のためのデータ拡張
- Authors: Yeonjun Bang and Yeejin Lee and Byeongkeun Kang
- Abstract要約: 本研究は、自律型EV充電ロボットの入出力検出における電気自動車(EV)充電の課題に対処する。
本稿では,画像から画像への変換に基づく新しいデータセット(EVCIデータセット)と新しいデータ拡張手法を提案する。
提案手法は最先端の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 10.424692022922887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses the task of electric vehicle (EV) charging inlet
detection for autonomous EV charging robots. Recently, automated EV charging
systems have received huge attention to improve users' experience and to
efficiently utilize charging infrastructures and parking lots. However, most
related works have focused on system design, robot control, planning, and
manipulation. Towards robust EV charging inlet detection, we propose a new
dataset (EVCI dataset) and a novel data augmentation method that is based on
image-to-image translation where typical image-to-image translation methods
synthesize a new image in a different domain given an image. To the best of our
knowledge, the EVCI dataset is the first EV charging inlet dataset. For the
data augmentation method, we focus on being able to control synthesized images'
captured environments (e.g., time, lighting) in an intuitive way. To achieve
this, we first propose the environment guide vector that humans can intuitively
interpret. We then propose a novel image-to-image translation network that
translates a given image towards the environment described by the vector.
Accordingly, it aims to synthesize a new image that has the same content as the
given image while looking like captured in the provided environment by the
environment guide vector. Lastly, we train a detection method using the
augmented dataset. Through experiments on the EVCI dataset, we demonstrate that
the proposed method outperforms the state-of-the-art methods. We also show that
the proposed method is able to control synthesized images using an image and
environment guide vectors.
- Abstract(参考訳): 本研究は、自律型EV充電ロボットの入出力検出における電気自動車(EV)充電の課題に対処する。
近年,自動EV充電システムが注目され,ユーザエクスペリエンスの向上と,充電インフラや駐車場の効率化が図られている。
しかし、ほとんどの関連作品はシステム設計、ロボット制御、計画、操作に焦点を当てている。
そこで本研究では,画像から画像への変換を基本とした新しいデータセット(evciデータセット)と新しいデータ拡張手法を提案する。
私たちの知る限りでは、EVCIデータセットは、最初のEV充電インレットデータセットです。
データ拡張法では、直感的に合成画像の撮影環境(例えば、時間、照明)を制御できることに重点を置いている。
そこで我々はまず,人間が直感的に解釈できる環境ガイドベクトルを提案する。
次に,ベクトルによって記述された環境に対して,与えられた画像を変換する新しい画像変換ネットワークを提案する。
そこで,環境ガイドベクターによって提供された環境を捉えつつ,与えられた画像と同じ内容の新たな画像を合成することを目的とする。
最後に,拡張データセットを用いて検出方法を学習する。
EVCIデータセットの実験を通して,提案手法が最先端手法より優れていることを示す。
また,提案手法は画像と環境ガイドベクトルを用いて合成画像を制御することができることを示す。
関連論文リスト
- BEVPose: Unveiling Scene Semantics through Pose-Guided Multi-Modal BEV Alignment [8.098296280937518]
本稿では,カメラとライダーデータからBEV表現を統合するフレームワークであるBEVPoseについて,センサポーズを誘導監視信号として用いた。
ポーズ情報を活用することで,環境の幾何学的側面と意味的側面の両方を捉えた潜在的BEV埋め込みの学習を容易にし,マルチモーダルな感覚入力を調整・融合する。
論文 参考訳(メタデータ) (2024-10-28T12:40:27Z) - Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [104.87876441265593]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View [0.49747156441456597]
従来のアプローチでは、環境をシミュレートする複数のセンサーのインストールに依存していた。
シーンのトップダウン表現を生成することで、代替ソリューションを提案する。
本稿では,RGB画像の視点ビューを,周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T10:16:42Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Estimation of Appearance and Occupancy Information in Birds Eye View
from Surround Monocular Images [2.69840007334476]
Birds-eye View (BEV)は、トップダウンビューから、エゴ車両フレーム内の異なる交通参加者の位置を表す。
360デグ視野(FOV)をカバーするモノクラーカメラのアレイから、様々な交通参加者の外観や占有情報をキャプチャする新しい表現を提案する。
我々は、すべてのカメラ画像の学習画像埋め込みを使用して、シーンの外観と占有度の両方をキャプチャする瞬間に、シーンのBEVを生成する。
論文 参考訳(メタデータ) (2022-11-08T20:57:56Z) - Delving into the Devils of Bird's-eye-view Perception: A Review,
Evaluation and Recipe [115.31507979199564]
鳥眼視(BEV)における知覚タスクの強力な表現の学習は、産業と学界の両方から注目されつつある。
センサーの構成が複雑化するにつれて、異なるセンサーからの複数のソース情報の統合と、統一されたビューにおける特徴の表現が重要になる。
BEV知覚の中核的な問題は、(a)視点からBEVへの視点変換を通して失われた3D情報を再構成する方法、(b)BEVグリッドにおける基底真理アノテーションの取得方法、(d)センサー構成が異なるシナリオでアルゴリズムを適応・一般化する方法にある。
論文 参考訳(メタデータ) (2022-09-12T15:29:13Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Multi-View Fusion of Sensor Data for Improved Perception and Prediction
in Autonomous Driving [11.312620949473938]
本稿では,LiDARとカメラ画像の多視点表現を用いた物体検出と軌跡予測のエンドツーエンド手法を提案する。
我々のモデルは最先端のBird's-Eye View(BEV)ネットワーク上に構築され、歴史的なLiDARデータからボキセル化された特徴を融合する。
我々は、このモデルを、ネイティブな非量子化表現で生のLiDAR情報を使用する追加のLiDAR Range-View (RV)機能で拡張する。
論文 参考訳(メタデータ) (2020-08-27T03:32:25Z) - A Sim2Real Deep Learning Approach for the Transformation of Images from
Multiple Vehicle-Mounted Cameras to a Semantically Segmented Image in Bird's
Eye View [0.0]
カメラの視点を鳥の視線(BEV)に変換すると、距離をより容易に推定できる。
本稿では,複数の車載カメラから補正された360度BEV画像を得る方法について述べる。
ニューラルネットワークのアプローチは、手動でラベル付けされたデータに頼るのではなく、実世界のデータに対してうまく一般化するように、合成データセットでトレーニングされる。
論文 参考訳(メタデータ) (2020-05-08T14:54:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。