論文の概要: LookUp3D: Data-Driven 3D Scanning
- arxiv url: http://arxiv.org/abs/2405.14882v2
- Date: Wed, 22 Oct 2025 13:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:01.891567
- Title: LookUp3D: Data-Driven 3D Scanning
- Title(参考訳): LookUp3D: データ駆動型3Dスキャン
- Authors: Giancarlo Pereira, Yidan Gao, Yurii Piadyk, David Fouhey, Claudio T Silva, Daniele Panozzo,
- Abstract要約: 高速で高解像度で正確な3Dスキャンは、グラフィックス、ロボティクス、科学、医学の多くの新しい応用への扉を開くだろう。
本研究では,1メガピクセルで450フレーム/秒,0.4メガピクセルで1450フレーム/秒で制御された環境下で,初めて3Dスキャンを行う方法を提案する。
- 参考スコア(独自算出の注目度): 12.387508055435815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High speed, high-resolution, and accurate 3D scanning would open doors to many new applications in graphics, robotics, science, and medicine by enabling the accurate scanning of deformable objects during interactions. Past attempts to use structured light, time-of-flight, and stereo in high-speed settings have usually required tradeoffs in resolution or inaccuracy. In this paper, we introduce a method that enables, for the first time, 3D scanning at 450 frames per second at 1~Megapixel, or 1,450 frames per second at 0.4~Megapixel in an environment with controlled lighting. The key idea is to use a per-pixel lookup table that maps colors to depths, which is built using a linear stage. Imperfections, such as lens-distortion and sensor defects are baked into the calibration. We describe our method and test it on a novel hardware prototype. We compare the system with both ground-truth geometry as well as commercially available dynamic sensors like the Microsoft Kinect and Intel Realsense. Our results show the system acquiring geometry of objects undergoing high-speed deformations and oscillations and demonstrate the ability to recover physical properties from the reconstructions.
- Abstract(参考訳): 高速、高解像度、正確な3Dスキャンは、相互作用中の変形可能な物体の正確なスキャンを可能にすることで、グラフィックス、ロボティクス、科学、医学の多くの新しい応用への扉を開く。
構造化光、飛行時間、ステレオを高速で使用しようとする過去の試みは、通常、解像度や不正確さのトレードオフを必要とする。
本稿では,1~メガピクセルで450フレーム/秒,0.4~メガピクセルで1,450フレーム/秒で制御された環境下で,初めて3Dスキャンを行う方法を提案する。
鍵となるアイデアは、色を深度にマッピングするピクセルごとのルックアップテーブルを使用することだ。
レンズ歪みやセンサ欠陥などの欠陥をキャリブレーションに焼き付ける。
提案手法を記述し,新しいハードウェアプロトタイプ上でテストする。
我々はこのシステムを、地上構造と、Microsoft KinectやIntel Realsenseのような商用のダイナミックセンサーの両方と比較した。
以上の結果から,高速な変形および振動を行う物体の形状をシステムに取得し,復元から物理的特性を回復する能力を示す。
関連論文リスト
- Transientangelo: Few-Viewpoint Surface Reconstruction Using Single-Photon Lidar [8.464054039931245]
ライダーは、ターゲットに光のパルスを放出し、反射光の光速遅延を記録することで、3Dシーンの幾何学を捉えている。
従来のライダーシステムは、後方散乱光の生で捕獲された波形を出力しない。
我々は,光子ノイズに対するロバスト性を向上させる新しい正則化戦略を開発し,画素あたり10光子程度で正確な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-08-22T08:12:09Z) - CalibFPA: A Focal Plane Array Imaging System based on Online
Deep-Learning Calibration [0.13194391758295113]
多重LR測定のオンライン深層学習校正に基づく新しい圧縮FPAシステムを提案する。
次に、深層ニューラルネットワークを利用して、多重測定におけるシステム非理想の影響を補正する。
CalibFPAは最先端の圧縮FPA法より優れている。
論文 参考訳(メタデータ) (2023-09-20T15:53:33Z) - Instant Multi-View Head Capture through Learnable Registration [62.70443641907766]
3次元頭部のデータセットを密接なセマンティック通信でキャプチャする既存の手法は遅い。
キャリブレーションされたマルチビュー画像から3Dヘッドを直接推定するためにTEMPEHを導入する。
1つの頭部の予測には0.3秒かかるが、中央値の復元誤差は0.26mmで、現在の最先端よりも64%低い。
論文 参考訳(メタデータ) (2023-06-12T21:45:18Z) - 3D Reconstruction using Structured Light from off-the-shelf components [0.0]
3Dスキャン技術の出現により、生成された点雲の精度と密度が引き継がれた。
このプロジェクトでは、3Dスキャンソフトウェアで使用できる異なるアルゴリズムを比較するだけでなく、カメラやプロジェクターのような市販のコンポーネントから独自の3Dスキャナを作成する。
論文 参考訳(メタデータ) (2022-09-24T22:53:44Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - ACSC: Automatic Calibration for Non-repetitive Scanning Solid-State
LiDAR and Camera Systems [11.787271829250805]
Solid-State LiDAR(SSL)は、環境から3Dポイントクラウドを低コストで効率的に取得することを可能にする。
非繰り返し走査型SSLとカメラシステムのための完全自動校正法を提案する。
実環境下でのLiDARとカメラセンサの組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-11-17T09:11:28Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。