論文の概要: Visible Light Positioning With Lamé Curve LEDs: A Generic Approach for Camera Pose Estimation
- arxiv url: http://arxiv.org/abs/2602.01577v1
- Date: Mon, 02 Feb 2026 03:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.864573
- Title: Visible Light Positioning With Lamé Curve LEDs: A Generic Approach for Camera Pose Estimation
- Title(参考訳): ラメ曲線LEDによる可視光測位:カメラポーズ推定のためのジェネリックアプローチ
- Authors: Wenxuan Pan, Yang Yang, Dong Wei, Zhiyu Zhu, Jintao Wang, Huan Wu, Yao Nie,
- Abstract要約: カメラベースの可視光測光は,高精度で低コストな室内カメラポーズ推定技術として有望な技術である。
必要な発光ダイオード(LED)の数を減らすため、先進的な手法では位置決めにLED形状の特徴を利用するのが一般的である。
本稿では,一般的なLED形状の統一表現としてのLamé曲線について検討する。
- 参考スコア(独自算出の注目度): 24.4960526398968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera-based visible light positioning (VLP) is a promising technique for accurate and low-cost indoor camera pose estimation (CPE). To reduce the number of required light-emitting diodes (LEDs), advanced methods commonly exploit LED shape features for positioning. Although interesting, they are typically restricted to a single LED geometry, leading to failure in heterogeneous LED-shape scenarios. To address this challenge, this paper investigates Lamé curves as a unified representation of common LED shapes and proposes a generic VLP algorithm using Lamé curve-shaped LEDs, termed LC-VLP. In the considered system, multiple ceiling-mounted Lamé curve-shaped LEDs periodically broadcast their curve parameters via visible light communication, which are captured by a camera-equipped receiver. Based on the received LED images and curve parameters, the receiver can estimate the camera pose using LC-VLP. Specifically, an LED database is constructed offline to store the curve parameters, while online positioning is formulated as a nonlinear least-squares problem and solved iteratively. To provide a reliable initialization, a correspondence-free perspective-\textit{n}-points (FreeP\textit{n}P) algorithm is further developed, enabling approximate CPE without any pre-calibrated reference points. The performance of LC-VLP is verified by both simulations and experiments. Simulations show that LC-VLP outperforms state-of-the-art methods in both circular- and rectangular-LED scenarios, achieving reductions of over 40% in position error and 25% in rotation error. Experiments further show that LC-VLP can achieve an average position accuracy of less than 4 cm.
- Abstract(参考訳): カメラベース可視光測光(VLP)は,高精度で低コストな室内カメラポーズ推定(CPE)のための有望な技術である。
必要な発光ダイオード(LED)の数を減らすため、先進的な手法では位置決めにLED形状の特徴を利用するのが一般的である。
興味深いが、通常は単一のLED幾何学に制限されており、不均一なLED形状のシナリオでは失敗する。
この課題に対処するために,Lamé曲線を共通LED形状の統一表現として検討し,LC-VLPと呼ばれるLamé曲線形LEDを用いた汎用VLPアルゴリズムを提案する。
提案システムでは,複数の天井マウント型ラメ曲線型LEDが可視光通信により周期的に曲線パラメータをブロードキャストし,それをカメラ搭載の受信機で捉えた。
受信したLED画像と曲線パラメータに基づいて、LC-VLPを用いてカメラポーズを推定することができる。
具体的には、曲線パラメータを保存するためにLEDデータベースをオフラインで構築し、オンライン位置決めを非線形最小二乗問題として定式化し、反復的に解決する。
信頼できる初期化を実現するため、事前校正された基準点を使わずに近似CPEを実現するために、対応のないパースペクティブ-\textit{n}-points (FreeP\textit{n}P)アルゴリズムをさらに開発する。
LC-VLPの性能をシミュレーションおよび実験により検証した。
シミュレーションにより、LC-VLPは円形と長方形の両方のLEDシナリオにおいて最先端の手法より優れており、40%以上の位置誤差と25%以上の回転誤差を実現している。
さらに、LC-VLPは平均位置精度が4cm未満であることを示す実験も行われた。
関連論文リスト
- A Linear Fractional Transformation Model and Calibration Method for Light Field Camera [2.5217833238102485]
本稿では、主レンズとマイクロレンズアレイを分離するために、線形分数変換パラメータ$alpha$を提案する。
提案手法は,少なくとも二乗法に基づく解析解を含む。
提案モデルに基づいて, 原光場画像のシミュレーションを高速化する。
論文 参考訳(メタデータ) (2025-11-06T01:32:04Z) - Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - PointVDP: Learning View-Dependent Projection by Fireworks Rays for 3D Point Cloud Segmentation [66.00721801098574]
本稿では,ポイントクラウドのセグメンテーションを容易にするために,ビュー依存プロジェクション(VDP)を提案する。
VDPは3Dポイント分布からデータ駆動プロジェクションを生成する。
フレームワークを最適化するために色規則化を構築します。
論文 参考訳(メタデータ) (2025-07-09T07:44:00Z) - DPCS: Path Tracing-Based Differentiable Projector-Camera Systems [49.69815958689441]
ProCamのプロジェクタカメラシステム(ProCams)シミュレーションは、プロカメラの物理的プロジェクタ・アンド・キャプチャ・プロセスと関連するシーンパラメータをモデル化することを目的としている。
最近の進歩は、プロジェクト・アンド・キャプチャプロセスを学ぶためにエンドツーエンドのニューラルネットワークを使用している。
本稿では,新しい経路追従型微分可能プロジェクタカメラシステム(DPCS)を導入し,微分可能なProCamsシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2025-03-15T15:31:18Z) - LiFCal: Online Light Field Camera Calibration via Bundle Adjustment [38.2887165481751]
LiFCalは、MLAベースの光フィールドカメラのためのオンラインキャリブレーションパイプラインである。
正確な校正対象のない移動カメラシーケンスからモデルパラメータを正確に決定する。
ターゲットのないシーンに適用可能で、完全な継続的パイプラインでオンラインに実装されている。
論文 参考訳(メタデータ) (2024-08-21T15:04:49Z) - YOCO: You Only Calibrate Once for Accurate Extrinsic Parameter in LiDAR-Camera Systems [0.5999777817331317]
カメラとLiDARからなるマルチセンサー融合システムでは、正確な外部キャリブレーションがシステムの長期的な安定性と環境の正確な認識に寄与する。
本稿では,LiDARカメラシステムにおいて,対応点登録の必要性を回避するための完全自動外部校正手法を提案する。
論文 参考訳(メタデータ) (2024-07-25T13:44:49Z) - Projective Parallel Single-Pixel Imaging: 3D Structured Light Scanning
Under Global Illumination [14.719501707062888]
我々は,光輸送挙動を解析するための頑健かつ効率的な3次元撮影法として,投影型並列単画素イメージング(pPSI)を提案する。
光輸送挙動は、プロジェクターカメラ対の完全な情報を含み、4Dデータセットである光輸送係数(LTC)によって記述される。
本稿では,プロジェクションが捕捉されたときの候補対応点の位置を制約する局所的最大制約を提案する。
論文 参考訳(メタデータ) (2023-12-13T05:58:52Z) - OSPC: Online Sequential Photometric Calibration [0.0]
測光キャリブレーションは多くのコンピュータビジョンアプリケーションに必須である。
逐次推定手法を用いて,測光パラメータの解法を提案する。
論文 参考訳(メタデータ) (2023-05-28T09:44:58Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Zero-Reference Deep Curve Estimation for Low-Light Image Enhancement [156.18634427704583]
本稿では、深部ネットワークを用いた画像特異的曲線推定のタスクとして光強調を定式化するゼロ参照深部曲線推定法(Zero-DCE)を提案する。
提案手法は,DCE-Netという軽量な深層ネットワークをトレーニングし,画像のダイナミックレンジ調整のための画素幅と高次曲線を推定する。
論文 参考訳(メタデータ) (2020-01-19T13:49:15Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。