論文の概要: An Online Learning System for Wireless Charging Alignment using
Surround-view Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2105.12763v1
- Date: Wed, 26 May 2021 18:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:24:32.292176
- Title: An Online Learning System for Wireless Charging Alignment using
Surround-view Fisheye Cameras
- Title(参考訳): 魚眼カメラを用いたワイヤレス充電アライメントのオンライン学習システム
- Authors: Ashok Dahal, Varun Ravi Kumar, Senthil Yogamani and Ciaran Eising
- Abstract要約: 本研究では,車体を誘導充電パッドで検知し,位置決めし,自動的に整列するサラウンドビューカメラアーキテクチャに基づくシステムを提案する。
車両と充電パッドを手動で調整し、弱い監督と組み合わせる際の運転者の行動を活用するオンライン学習方法。
Visual SLAMパイプラインは、充電パッドに対するランドマークを学習し、より広い範囲からのアライメントを可能にする。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electric Vehicles are increasingly common, with inductive chargepads being
considered a convenient and efficient means of charging electric vehicles.
However, drivers are typically poor at aligning the vehicle to the necessary
accuracy for efficient inductive charging, making the automated alignment of
the two charging plates desirable. In parallel to the electrification of the
vehicular fleet, automated parking systems that make use of surround-view
camera systems are becoming increasingly popular. In this work, we propose a
system based on the surround-view camera architecture to detect, localize and
automatically align the vehicle with the inductive chargepad. The visual design
of the chargepads is not standardized and not necessarily known beforehand.
Therefore a system that relies on offline training will fail in some
situations. Thus we propose an online learning method that leverages the
driver's actions when manually aligning the vehicle with the chargepad and
combine it with weak supervision from semantic segmentation and depth to learn
a classifier to auto-annotate the chargepad in the video for further training.
In this way, when faced with a previously unseen chargepad, the driver needs
only manually align the vehicle a single time. As the chargepad is flat on the
ground, it is not easy to detect it from a distance. Thus, we propose using a
Visual SLAM pipeline to learn landmarks relative to the chargepad to enable
alignment from a greater range. We demonstrate the working system on an
automated vehicle as illustrated in the video https://youtu.be/_cLCmkW4UYo. To
encourage further research, we will share a chargepad dataset used in this
work.
- Abstract(参考訳): 電気自動車はますます一般的になり、誘導充電パッドは電気自動車を充電するための便利で効率的な手段と考えられている。
しかし、ドライバは通常、効率的な誘導充電に必要な精度で車両を調整できないため、2つの充電プレートの自動アライメントが望ましい。
車両車両の電化と並行して、サラウンドビューカメラシステムを利用した自動駐車システムが人気が高まっている。
本研究では,車体を誘導充電パッドで検出し,位置決めし,自動調整するサラウンドビューカメラアーキテクチャに基づくシステムを提案する。
チャージパッドのビジュアルデザインは標準化されておらず、事前には知られていない。
したがって、オフライントレーニングに依存するシステムは、いくつかの状況で失敗する。
そこで本研究では,車両とチャージパッドを手動で連携させ,セマンティクスセグメンテーションや奥行きからの弱い監督と組み合わせることで,ビデオ内のチャージパッドを自動注釈する分類器を学習し,さらなるトレーニングを行うオンライン学習手法を提案する。
このように、これまで見えない充電パッドに直面した場合、ドライバーは1回だけ手動で車両を調整する必要がある。
充電パッドは地面に平らであるため、距離から検出するのは容易ではない。
そこで我々は,より広い範囲からのアライメントを可能にするために,Visual SLAMパイプラインを用いて充電パッドに対するランドマークを学習する。
ビデオhttps://youtu.be/_clcmkw4uyoに示されているように、自動走行車の作業システムを示す。
さらなる研究を奨励するために、本研究で使用されるchargepadデータセットを共有します。
関連論文リスト
- Tapping in a Remote Vehicle's onboard LLM to Complement the Ego Vehicle's Field-of-View [1.701722696403793]
本稿では,車載言語モデル(LLM)をタップすることで,エゴ車両の視野(FOV)と他の車両のFOVを補完する概念を提案する。
GPT-4V や GPT-4o など,ごく最近の LLM では,交通状況が極めて詳細に把握されているため,交通参加者の特定にも利用することができる。
論文 参考訳(メタデータ) (2024-08-20T12:38:34Z) - Leveraging GNSS and Onboard Visual Data from Consumer Vehicles for Robust Road Network Estimation [18.236615392921273]
本稿では,自動運転車における道路グラフ構築の課題について述べる。
本稿では,これらの標準センサから取得したグローバルナビゲーション衛星システム(GNSS)のトレースと基本画像データについて提案する。
我々は、畳み込みニューラルネットワークを用いて、道路中心のセマンティックセグメンテーションタスクとして問題をフレーミングすることで、データの空間情報を利用する。
論文 参考訳(メタデータ) (2024-08-03T02:57:37Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Robust Autonomous Vehicle Pursuit without Expert Steering Labels [41.168074206046164]
車両追尾用エゴ車両の左右方向と縦方向の動作制御の学習法を提案する。
制御される車両は事前に定義された経路を持たず、安全距離を維持しながら目標車両を追尾するように反応的に適応する。
我々は、CARLAシミュレーターを用いて、幅広い地形における我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-08-16T14:09:39Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - Decentralized Vehicle Coordination: The Berkeley DeepDrive Drone Dataset [103.35624417260541]
分散車両調整は、未整備の道路環境において有用である。
我々はバークレーのDeepDrive Droneデータセットを収集し、近くのドライバーが観察する暗黙の「社会的エチケット」を研究する。
このデータセットは、人間のドライバーが採用する分散マルチエージェント計画と、リモートセンシング設定におけるコンピュータビジョンの研究に主に関心がある。
論文 参考訳(メタデータ) (2022-09-19T05:06:57Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Self-Supervised Steering Angle Prediction for Vehicle Control Using
Visual Odometry [55.11913183006984]
視覚オドメトリー法を用いて推定したカメラポーズを用いて,車両の軌道制御をモデルに訓練する方法を示す。
車両の前方にカメラを設置することにより,複数の異なる走行経路からの軌跡情報を活用するスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-20T16:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。