論文の概要: UniCal: a Single-Branch Transformer-Based Model for Camera-to-LiDAR
Calibration and Validation
- arxiv url: http://arxiv.org/abs/2304.09715v1
- Date: Wed, 19 Apr 2023 15:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:04:34.440849
- Title: UniCal: a Single-Branch Transformer-Based Model for Camera-to-LiDAR
Calibration and Validation
- Title(参考訳): UniCal:カメラ対LiDAR校正と検証のための単分岐変換器モデル
- Authors: Mathieu Cocheteux, Aaron Low, Marius Bruehlmeier
- Abstract要約: カメラ対LiDAR(C2L)外部キャリブレーションのための新しいアーキテクチャUniCalを導入する。
既存の手法と比較して,UniCalは最先端の結果が得られることを示す。
また、転送学習により、キャリブレーションタスクで学習した重みが、バックボーンを再訓練することなくキャリブレーション検証タスクに適用可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel architecture, UniCal, for Camera-to-LiDAR (C2L)
extrinsic calibration which leverages self-attention mechanisms through a
Transformer-based backbone network to infer the 6-degree of freedom (DoF)
relative transformation between the sensors. Unlike previous methods, UniCal
performs an early fusion of the input camera and LiDAR data by aggregating
camera image channels and LiDAR mappings into a multi-channel unified
representation before extracting their features jointly with a single-branch
architecture. This single-branch architecture makes UniCal lightweight, which
is desirable in applications with restrained resources such as autonomous
driving. Through experiments, we show that UniCal achieves state-of-the-art
results compared to existing methods. We also show that through transfer
learning, weights learned on the calibration task can be applied to a
calibration validation task without re-training the backbone.
- Abstract(参考訳): センサ間の6自由度(DoF)相対変換を推定するために,トランスフォーマーベースのバックボーンネットワークを介して自己保持機構を活用する,カメラ対LiDAR(C2L)外部キャリブレーションのための新しいアーキテクチャであるUniCalを導入する。
従来の方法とは異なり、UniCalはカメラ画像チャネルとLiDARマッピングを多チャンネル統一表現に集約し、入力カメラとLiDARデータの早期融合を行い、それらを単一ブランチアーキテクチャと組み合わせて抽出する。
このシングルブランチアーキテクチャは、自律運転のような制限されたリソースを持つアプリケーションで望ましい、unical lightweightとなる。
実験により、UniCalは既存の手法と比較して最先端の結果が得られることを示す。
また, 伝達学習により, キャリブレーションタスクで学習した重みを, バックボーンを再トレーニングすることなくキャリブレーション検証タスクに適用できることを示した。
関連論文リスト
- UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - CalibFormer: A Transformer-based Automatic LiDAR-Camera Calibration Network [11.602943913324653]
CalibFormerは自動LiDARカメラキャリブレーションのためのエンドツーエンドネットワークである。
高精細度表現を実現するために、複数のカメラ層とLiDAR画像層を集約する。
平均翻訳誤差は0.8751 Mathrmcm$, 平均回転誤差は0.0562 circ$であった。
論文 参考訳(メタデータ) (2023-11-26T08:59:30Z) - UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - LCE-Calib: Automatic LiDAR-Frame/Event Camera Extrinsic Calibration With
A Globally Optimal Solution [10.117923901732743]
LiDARとカメラの組み合わせにより、移動ロボットはマルチモーダルデータで環境を知覚することができる。
従来のフレームカメラは照明条件の変更に敏感で、新しいイベントカメラの導入を動機付けています。
本稿では,LiDARとフレーム/イベントカメラの外部特性をキャリブレーションするためのチェッカーボードによる自動手法を提案する。
論文 参考訳(メタデータ) (2023-03-17T08:07:56Z) - From One to Many: Dynamic Cross Attention Networks for LiDAR and Camera
Fusion [12.792769704561024]
既存の融合法では、キャリブレーションに基づいて、各3Dポイントを1つの投影された画像ピクセルに調整する傾向がある。
本稿では,動的クロスアテンション(DCA)モジュールを提案する。
Dynamic Cross Attention Network (DCAN) という名称の核融合アーキテクチャは、マルチレベルイメージ機能を活用し、ポイントクラウドの複数の表現に適応する。
論文 参考訳(メタデータ) (2022-09-25T16:10:14Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z) - CTRL-C: Camera calibration TRansformer with Line-Classification [22.092637979495358]
そこで我々は,CTRL-Cを用いたカメラキャリブレーションTRansformerを提案する。
我々の実験では、ベンチマーク-CがGoogleストリートビューとSUN360データセットで過去の最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-09-06T06:30:38Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。