論文の概要: Automatic Calibration of a Multi-Camera System with Limited Overlapping Fields of View for 3D Surgical Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2501.16221v1
- Date: Mon, 27 Jan 2025 17:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:56:11.918560
- Title: Automatic Calibration of a Multi-Camera System with Limited Overlapping Fields of View for 3D Surgical Scene Reconstruction
- Title(参考訳): 3次元手術シーン再構築のための視野を限定したマルチカメラシステムの自動校正
- Authors: Tim Flückiger, Jonas Hein, Valery Fischer, Philipp Fürnstahl, Lilian Calvet,
- Abstract要約: 方法: 天井搭載プロジェクタを用いたマルチスケールマーカー(MSM)の投影に基づく, 新規で高速かつ完全自動キャリブレーション手法を提案する。
モックアップORでキャプチャした合成データと実データの両方を用いて検証を行う。
ズームレベルに有意な差がある条件下で高いロバスト性を示しながら、手動の演算子依存キャリブレーション法に匹敵する精度を実現する。
- 参考スコア(独自算出の注目度): 0.7165255458140439
- License:
- Abstract: Purpose: The purpose of this study is to develop an automated and accurate external camera calibration method for multi-camera systems used in 3D surgical scene reconstruction (3D-SSR), eliminating the need for operator intervention or specialized expertise. The method specifically addresses the problem of limited overlapping fields of view caused by significant variations in optical zoom levels and camera locations. Methods: We contribute a novel, fast, and fully automatic calibration method based on the projection of multi-scale markers (MSMs) using a ceiling-mounted projector. MSMs consist of 2D patterns projected at varying scales, ensuring accurate extraction of well distributed point correspondences across significantly different viewpoints and zoom levels. Validation is performed using both synthetic and real data captured in a mock-up OR, with comparisons to traditional manual marker-based methods as well as markerless calibration methods. Results: The method achieves accuracy comparable to manual, operator-dependent calibration methods while exhibiting higher robustness under conditions of significant differences in zoom levels. Additionally, we show that state-of-the-art Structure-from-Motion (SfM) pipelines are ineffective in 3D-SSR settings, even when additional texture is projected onto the OR floor. Conclusion: The use of a ceiling-mounted entry-level projector proves to be an effective alternative to operator-dependent, traditional marker-based methods, paving the way for fully automated 3D-SSR.
- Abstract(参考訳): 目的: 本研究の目的は, 3次元手術シーン再構築に使用されるマルチカメラシステムにおいて, 操作者の介入や専門知識の必要をなくし, 自動かつ正確な外部カメラキャリブレーション手法を開発することである。
この方法は、光学ズームレベルとカメラ位置の大幅な変化に起因する、限られた重なり合う視野の問題に特に対処する。
方法: 天井搭載プロジェクタを用いたマルチスケールマーカー(MSM)の投影に基づく, 新規で高速かつ完全自動キャリブレーション手法を提案する。
MSMは、様々なスケールで投影される2Dパターンで構成され、かなり異なる視点とズームレベルにわたるよく分散された点対応の正確な抽出を保証する。
モックアップORでキャプチャした合成データと実データの両方を用いてバリデーションを行い、従来の手動マーカー法とマーカーレス校正法との比較を行う。
結果: ズームレベルに有意な差がある条件下で高いロバスト性を示しながら, 手動の演算子依存キャリブレーション法に匹敵する精度を実現する。
さらに, ORフロアにテクスチャを追加投影しても, 3次元SSR設定では, 最先端のStructure-from-Motion(SfM)パイプラインが有効でないことを示す。
結論: 天井に搭載されたエントリーレベルプロジェクターは、オペレータ依存の従来のマーカーベースの手法に代わる効果的な代替手段であることが証明され、完全に自動化された3D-SSRの道が開かれた。
関連論文リスト
- Neural Real-Time Recalibration for Infrared Multi-Camera Systems [2.249916681499244]
赤外線マルチカメラシステムのリアルタイム再校正には、学習のない、あるいはニューラルネットワーク技術は存在しない。
動的リアルタイムキャリブレーションが可能なニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T14:37:37Z) - LLMI3D: Empowering LLM with 3D Perception from a Single 2D Image [72.14973729674995]
現在の3D認識手法、特に小さなモデルでは、論理的推論、質問応答、オープンシナリオカテゴリの処理に苦労している。
空間的特徴抽出のための空間的局所特徴抽出法,精密な幾何回帰のための3次元問合せ情報復号法,カメラ焦点長変動に対する幾何学投影に基づく3次元推論を提案する。
論文 参考訳(メタデータ) (2024-08-14T10:00:16Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Camera Distortion-aware 3D Human Pose Estimation in Video with
Optimization-based Meta-Learning [23.200130129530653]
歪みのないデータセットでトレーニングされた既存の3次元ポーズ推定アルゴリズムは、特定のカメラ歪みのある新しいシナリオに適用した場合、パフォーマンス低下を被る。
本研究では, 歪み環境に迅速に適応できる簡易かつ効果的な3次元ポーズ推定モデルを提案する。
論文 参考訳(メタデータ) (2021-11-30T01:35:04Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - Stereo camera system calibration: the need of two sets of parameters [0.0]
ステレオカメラシステムによるシーンの再構築は2段階のプロセスである。
最初は、異なるカメラの画像が一致して、実際に現実世界で再構築されるポイント・ツー・ポイント対応のセットを特定します。
2つの異なるパラメータを推定するためにシステムを2回校正することを提案する。
論文 参考訳(メタデータ) (2021-01-14T17:03:17Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。