論文の概要: RegHEC: Hand-Eye Calibration via Simultaneous Multi-view Point Clouds
Registration of Arbitrary Object
- arxiv url: http://arxiv.org/abs/2304.14092v1
- Date: Thu, 27 Apr 2023 11:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:48:32.551235
- Title: RegHEC: Hand-Eye Calibration via Simultaneous Multi-view Point Clouds
Registration of Arbitrary Object
- Title(参考訳): RegHEC: 任意物体の同時多視点雲登録によるハンドアイ校正
- Authors: Shiyu Xing, Fengshui Jing, Min Tan
- Abstract要約: RegHECは、正確な校正リグを必要としない登録ベースの手目校正技術である。
任意のシーンの複数視点の雲を共通の参照フレームの下で同時登録する手目関係を見つけようとする。
- 参考スコア(独自算出の注目度): 1.7161586414363612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RegHEC is a registration-based hand-eye calibration technique with no need
for accurate calibration rig but arbitrary available objects, applicable for
both eye-in-hand and eye-to-hand cases. It tries to find the hand-eye relation
which brings multi-view point clouds of arbitrary scene into simultaneous
registration under a common reference frame. RegHEC first achieves initial
alignment of multi-view point clouds via Bayesian optimization, where
registration problem is modeled as a Gaussian process over hand-eye relation
and the covariance function is modified to be compatible with distance metric
in 3-D motion space SE(3), then passes the initial guess of hand-eye relation
to an Anderson Accelerated ICP variant for later fine registration and accurate
calibration. RegHEC has little requirement on calibration object, it is
applicable with sphere, cone, cylinder and even simple plane, which can be
quite challenging for correct point cloud registration and sensor motion
estimation using existing methods. While suitable for most 3-D vision guided
tasks, RegHEC is especially favorable for robotic 3-D reconstruction, as
calibration and multi-view point clouds registration of reconstruction target
are unified into a single process. Our technique is verified with extensive
experiments using varieties of arbitrary objects and real hand-eye system. We
release an open-source C++ implementation of RegHEC.
- Abstract(参考訳): RegHECは、正確な校正リグを必要とせず、任意の使用可能なオブジェクトを登録ベースで校正する技術であり、眼と眼の両方のケースに適用できる。
任意のシーンの多視点点雲を共通の参照フレームの下で同時登録する手目関係を見つけようとする。
RegHEC はまずベイズ最適化により多視点雲の初期アライメントを達成し、登録問題は手目関係上のガウス過程としてモデル化され、共分散関数は3次元運動空間 SE(3) において距離メートル法に適合するように修正され、その後アンダーソン加速度ICP 変種に対する手目関係の最初の推測をパスして後続の細かな登録と正確な校正を行う。
RegHECは校正対象にはほとんど要求がなく、球面、円錐、シリンダー、さらには単純な平面にも適用可能である。
多くの3Dビジョンガイドタスクには適しているが、RegHECは校正と複数視点の雲による再構成対象の登録が単一のプロセスに統合されるため、ロボット3D再構成に特に適している。
本手法は,任意の物体と実眼システムを用いた広範囲な実験により検証した。
我々はRegHECのオープンソースC++実装をリリースする。
関連論文リスト
- Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural
Calibration [99.44264155894376]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性変換を推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - Unleash the Potential of 3D Point Cloud Modeling with A Calibrated Local
Geometry-driven Distance Metric [62.365983810610985]
そこで我々は,Callibated Local Geometry Distance (CLGD) と呼ばれる新しい距離測定法を提案する。
CLGDは、基準点の集合によってキャリブレーションされ誘導される基礎となる3次元表面の差を計算する。
一般的な指標として、CLGDは3Dポイントのクラウドモデリングを前進させる可能性がある。
論文 参考訳(メタデータ) (2023-06-01T11:16:20Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - From One to Many: Dynamic Cross Attention Networks for LiDAR and Camera
Fusion [12.792769704561024]
既存の融合法では、キャリブレーションに基づいて、各3Dポイントを1つの投影された画像ピクセルに調整する傾向がある。
本稿では,動的クロスアテンション(DCA)モジュールを提案する。
Dynamic Cross Attention Network (DCAN) という名称の核融合アーキテクチャは、マルチレベルイメージ機能を活用し、ポイントクラウドの複数の表現に適応する。
論文 参考訳(メタデータ) (2022-09-25T16:10:14Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - ACSC: Automatic Calibration for Non-repetitive Scanning Solid-State
LiDAR and Camera Systems [11.787271829250805]
Solid-State LiDAR(SSL)は、環境から3Dポイントクラウドを低コストで効率的に取得することを可能にする。
非繰り返し走査型SSLとカメラシステムのための完全自動校正法を提案する。
実環境下でのLiDARとカメラセンサの組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-11-17T09:11:28Z) - Unsupervised Learning of 3D Point Set Registration [15.900382629390297]
点雲登録は、幾何変換を探索することで一対の点集合を整列する過程である。
本稿では,新たに導入された深部空間相関表現(SCR)機能に基づく,新しい教師なし登録フレームワークであるDeep-3DAlignerを提案する。
提案手法は,まずランダムに遅延するSCR特徴量を最適化し,次に幾何変換に復号し,ソースとターゲットの点集合を整列させる。
論文 参考訳(メタデータ) (2020-06-11T05:21:38Z) - TCM-ICP: Transformation Compatibility Measure for Registering Multiple
LIDAR Scans [4.5412347600435465]
本稿では,複数重複するLiDARスキャンを登録するアルゴリズムを提案する。
本研究では,TCM(Transform Compatibility Measure)と呼ばれる幾何学的指標を導入する。
提案手法を実世界の4つの場面で評価し,実験結果から,提案手法の登録性能が従来の登録方式と同等か優れていることを示す。
論文 参考訳(メタデータ) (2020-01-04T21:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。