論文の概要: Kineo: Calibration-Free Metric Motion Capture From Sparse RGB Cameras
- arxiv url: http://arxiv.org/abs/2510.24464v1
- Date: Tue, 28 Oct 2025 14:30:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.229865
- Title: Kineo: Calibration-Free Metric Motion Capture From Sparse RGB Cameras
- Title(参考訳): キャリブレーション不要なRGBカメラのモーションキャプチャー「Kineo」
- Authors: Charles Javerliat, Pierre Raimbaud, Guillaume Lavoué,
- Abstract要約: アンカロライズされていないRGBカメラで撮影したビデオから、マーカーレスモーションキャプチャーのための、完全に自動でキャリブレーションのないパイプラインであるKineoを提示する。
自信駆動型キーポイントサンプリング戦略とグラフに基づくグローバル最適化を組み合わせることで、列長に依存しない固定計算コストでロバストなキャリブレーションが保証される。
Keinoはカメラ翻訳誤差を83~85%、カメラ角誤差を86~92%、世界平均結合誤差(W-MPJPE)を83~91%削減する。
- 参考スコア(独自算出の注目度): 2.6941922156574267
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Markerless multiview motion capture is often constrained by the need for precise camera calibration, limiting accessibility for non-experts and in-the-wild captures. Existing calibration-free approaches mitigate this requirement but suffer from high computational cost and reduced reconstruction accuracy. We present Kineo, a fully automatic, calibration-free pipeline for markerless motion capture from videos captured by unsynchronized, uncalibrated, consumer-grade RGB cameras. Kineo leverages 2D keypoints from off-the-shelf detectors to simultaneously calibrate cameras, including Brown-Conrady distortion coefficients, and reconstruct 3D keypoints and dense scene point maps at metric scale. A confidence-driven spatio-temporal keypoint sampling strategy, combined with graph-based global optimization, ensures robust calibration at a fixed computational cost independent of sequence length. We further introduce a pairwise reprojection consensus score to quantify 3D reconstruction reliability for downstream tasks. Evaluations on EgoHumans and Human3.6M demonstrate substantial improvements over prior calibration-free methods. Compared to previous state-of-the-art approaches, Kineo reduces camera translation error by approximately 83-85%, camera angular error by 86-92%, and world mean-per-joint error (W-MPJPE) by 83-91%. Kineo is also efficient in real-world scenarios, processing multi-view sequences faster than their duration in specific configuration (e.g., 36min to process 1h20min of footage). The full pipeline and evaluation code are openly released to promote reproducibility and practical adoption at https://liris-xr.github.io/kineo/.
- Abstract(参考訳): マーカレスマルチビューモーションキャプチャは、正確なカメラキャリブレーション、非専門家のアクセシビリティの制限、およびWildでのキャプチャによって制限されることが多い。
既存のキャリブレーションフリーアプローチは、この要件を緩和するが、高い計算コストと再現精度の低下に悩まされる。
Kineoは、非同期でキャリブレーションなしの消費者向けRGBカメラで撮影されたビデオから、マーカーレスモーションキャプチャーのための完全自動キャリブレーション不要のパイプラインである。
キネオはオフザシェルフ検出器からの2Dキーポイントを活用し、ブラウン・コンラディ歪み係数を含むカメラを同時に校正し、3Dキーポイントと密集したシーンポイントマップをメートルスケールで再構成する。
自信駆動型時空間鍵点サンプリング戦略とグラフに基づくグローバル最適化を組み合わせることで、列長に依存しない固定計算コストでのロバストキャリブレーションが保証される。
さらに、下流タスクの3次元再構成信頼性を定量化するために、ペアワイズ・リジェクション・コンセンサススコアを導入する。
EgoHumansとHuman3.6Mの評価は、以前のキャリブレーションフリー法よりも大幅に改善されている。
従来の最先端手法と比較して、Kineoはカメラ翻訳誤差を83~85%、カメラ角誤差を86~92%、世界平均結合誤差(W-MPJPE)を83~91%削減した。
Kineoは実世界のシナリオでも効率が良く、特定の設定(例えば、1h20minの映像を処理する36min)の時間よりも高速にマルチビューシーケンスを処理する。
完全なパイプラインと評価コードは、https://liris-xr.github.io/kineo/で再現性と実践的採用を促進するために、公開されている。
関連論文リスト
- PTZ-Calib: Robust Pan-Tilt-Zoom Camera Calibration [32.4466455429431]
本稿では,ロバストな2段カメラキャリブレーション手法を提案する。
オフラインの段階では、まず、完全な360度ビューを包含するのに十分な重なり合う参照画像の集合を均一に選択する。
オンライン段階では、再ローカライズ問題として、新しい視点の校正を実証する。
論文 参考訳(メタデータ) (2025-02-13T08:45:43Z) - CasCalib: Cascaded Calibration for Motion Capture from Sparse Unsynchronized Cameras [18.51320244029833]
オフザシェルフ3次元ポーズ推定器を用いた単眼画像から3次元人間のポーズを推定できるようになった。
多くの実用アプリケーションは、マルチビューキューとカメラキャリブレーションが必要な、きめ細かい絶対ポーズ情報を必要とする。
私たちのゴールは、時間同期を含む完全自動化と、固有のカメラキャリブレーションと、外部カメラキャリブレーションです。
論文 参考訳(メタデータ) (2024-05-10T23:02:23Z) - PeLiCal: Targetless Extrinsic Calibration via Penetrating Lines for RGB-D Cameras with Limited Co-visibility [11.048526314073886]
本稿では,RGB-Dカメラシステムのラインベースキャリブレーション手法であるPeLiCalについて述べる。
提案手法は,周辺環境からの長い線の特徴を活かし,新しい収束投票アルゴリズムを用いて外れ値のフィルタリングを行う。
論文 参考訳(メタデータ) (2024-04-22T07:50:24Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Pixel-wise Smoothing for Certified Robustness against Camera Motion
Perturbations [45.576866560987405]
本稿では,3D-2Dプロジェクティブ・トランスフォーメーションのロバスト性を証明するための枠組みを提案する。
本手法は3次元物理空間ではなく2次元画素空間上の滑らかな分布を利用する。
提案手法は,約80%の精度を達成し,投影された画像フレームの30%しか利用していない。
論文 参考訳(メタデータ) (2023-09-22T19:15:49Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。