論文の概要: NLiPsCalib: An Efficient Calibration Framework for High-Fidelity 3D Reconstruction of Curved Visuotactile Sensors
- arxiv url: http://arxiv.org/abs/2603.09319v1
- Date: Tue, 10 Mar 2026 07:50:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.134418
- Title: NLiPsCalib: An Efficient Calibration Framework for High-Fidelity 3D Reconstruction of Curved Visuotactile Sensors
- Title(参考訳): NLiPsCalib:曲線型ビゾタクタブルセンサの高忠実度3次元再構成のための効率的な校正フレームワーク
- Authors: Xuhao Qin, Feiyu Zhao, Yatao Leng, Runze Hu, Chenxi Xiao,
- Abstract要約: NLiPsCalibは,曲線型ビゾタクタクタブルセンサの物理一貫性と効率的な校正フレームワークである。
さらに,NLiPsTacは,我々のフレームワークを検証するために開発された,制御可能な光源触覚センサである。
- 参考スコア(独自算出の注目度): 6.94308778422421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in visuotactile sensors increasingly employ biomimetic curved surfaces to enhance sensorimotor capabilities. Although such curved visuotactile sensors enable more conformal object contact, their perceptual quality is often degraded by non-uniform illumination, which reduces reconstruction accuracy and typically necessitates calibration. Existing calibration methods commonly rely on customized indenters and specialized devices to collect large-scale photometric data, but these processes are expensive and labor-intensive. To overcome these calibration challenges, we present NLiPsCalib, a physics-consistent and efficient calibration framework for curved visuotactile sensors. NLiPsCalib integrates controllable near-field light sources and leverages Near-Light Photometric Stereo (NLiPs) to estimate contact geometry, simplifying calibration to just a few simple contacts with everyday objects. We further introduce NLiPsTac, a controllable-light-source tactile sensor developed to validate our framework. Experimental results demonstrate that our approach enables high-fidelity 3D reconstruction across diverse curved form factors with a simple calibration procedure. We emphasize that our approach lowers the barrier to developing customized visuotactile sensors of diverse geometries, thereby making visuotactile sensing more accessible to the broader community.
- Abstract(参考訳): 近年, バイオミメティックな曲面を応用し, 感覚運動機能の向上が図られている。
このような湾曲したビゾタクティルセンサーはよりコンフォメーションな物体接触を可能にするが、その知覚品質は非一様照明によって劣化し、再現精度が低下し、通常は校正を必要とする。
既存のキャリブレーション法は、大規模な測光データを収集するためにカスタマイズされたインデンタや特殊な装置に頼っていることが多いが、これらのプロセスは高価で労働集約的である。
これらのキャリブレーションの課題を克服するために,曲線型ビゾタクタクタブルセンサの物理一貫性と効率的なキャリブレーションフレームワークであるNLiPsCalibを提案する。
NLiPsCalibは制御可能な近接場光源を統合し、NLiP(Near-Light Photometric Stereo)を利用して接触形状を推定する。
NLiPsTacは,我々のフレームワークを検証するために開発された,制御可能な光源触覚センサである。
実験により, 簡便なキャリブレーション法により, 高忠実度3次元再構成が可能であることが確認された。
提案手法は,多様なジオメトリをカスタマイズしたバイオオタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタ
関連論文リスト
- Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis [73.27997579020233]
多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
論文 参考訳(メタデータ) (2026-02-20T16:20:50Z) - Visual Odometry with Transformers [68.453547770334]
特徴抽出により単眼フレームのシーケンスを処理するビジュアル・オドメトリ・トランスフォーマ(VoT)を導入する。
従来の方法とは異なり、VoTは密度の高い幾何学を推定することなくカメラの動きを直接予測し、監視のためにカメラのポーズのみに依存する。
VoTは、より大きなデータセットで効果的にスケールし、より強力なトレーニング済みバックボーンの恩恵を受け、多様なカメラモーションとキャリブレーション設定を一般化し、従来のメソッドよりも3倍以上高速に動作しながらパフォーマンスを向上する。
論文 参考訳(メタデータ) (2025-10-02T17:00:14Z) - Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting [28.41267004945046]
本稿では,ニューラルベースガウス表現と協調してセンサポーズを最適化するTLC(Targetless LiDAR scene)を提案する。
光度および幾何正則化による完全微分可能なパイプラインは、ロバストで一般化可能なキャリブレーションを実現する。
論文 参考訳(メタデータ) (2025-04-06T20:00:01Z) - CaLiV: LiDAR-to-Vehicle Calibration of Arbitrary Sensor Setups [0.8437187555622164]
自律システムでは、ダイナミック環境における安全かつ効率的なナビゲーションにはセンサキャリブレーションが不可欠である。
既存のLiDARキャリブレーション法の多くは、重なり合う視野を必要とするが、外部センサーデバイスを使ったり、機能豊富な環境を仮定するものもある。
本研究では,CaLiVと呼ばれるマルチLiDARシステムの外部センサ・センサ・センサ・バイヒクルキャリブレーションのための新しいターゲットベース手法を提案する。
このアルゴリズムは、重複しない視野で機能し、外部センサーデバイスを必要としない。
論文 参考訳(メタデータ) (2025-03-31T08:08:21Z) - SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using Neural Radiance Fields [10.958143040692141]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。