論文の概要: Self-supervised phase unwrapping in fringe projection profilometry
- arxiv url: http://arxiv.org/abs/2302.06381v2
- Date: Mon, 29 May 2023 04:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:36:56.740058
- Title: Self-supervised phase unwrapping in fringe projection profilometry
- Title(参考訳): フリンジ投影プロファイロメトリーにおける自己制御位相解離
- Authors: Xiaomin Gao, Wanzhong Song, Chunqian Tan, Junzhe Lei
- Abstract要約: 単カメラ遠近射影プロファイロメトリーのための新しい自己監督型位相アンラッピング法を提案する。
訓練されたネットワークは、64周期の1フェーズマップから絶対縁順を検索し、深さ精度でDF-TPUアプローチをオーバーパフォーマンスすることができる。
実験により, 提案手法が実際の動きのぼやけ, 孤立物体, 低反射率, 位相不連続の場面で有効であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fast-speed and high-accuracy three-dimensional (3D) shape measurement has
been the goal all along in fringe projection profilometry (FPP). The
dual-frequency temporal phase unwrapping method (DF-TPU) is one of the
prominent technologies to achieve this goal. However, the period number of the
high-frequency pattern of existing DF-TPU approaches is usually limited by the
inevitable phase errors, setting a limit to measurement accuracy.
Deep-learning-based phase unwrapping methods for single-camera FPP usually
require labeled data for training. In this letter, a novel self-supervised
phase unwrapping method for single-camera FPP systems is proposed. The trained
network can retrieve the absolute fringe order from one phase map of 64-period
and overperform DF-TPU approaches in terms of depth accuracy. Experimental
results demonstrate the validation of the proposed method on real scenes of
motion blur, isolated objects, low reflectivity, and phase discontinuity.
- Abstract(参考訳): 高速かつ高精度な3次元形状測定は、FPP (fringe projection profilometry) において常に目標となっている。
二周波時相解離法(DF-TPU)はこの目的を達成するための重要な技術の一つである。
しかしながら、既存のdf-tpuアプローチの高周波パターンの周期数は、通常避けられない位相誤差によって制限され、測定精度の限界となる。
シングルカメラFPPの深層学習に基づく位相解放法は通常、トレーニングのためにラベル付きデータを必要とする。
本稿では,単一カメラ用FPPシステムの自己監督型位相解放手法を提案する。
訓練されたネットワークは、64周期の1フェーズマップから絶対縁順を検索し、深さ精度でDF-TPUアプローチをオーバーパフォーマンスすることができる。
実験により, 提案手法が実際の動きのぼやけ, 孤立物体, 低反射率, 位相不連続の場面で有効であることを示す。
関連論文リスト
- PCF-Lift: Panoptic Lifting by Probabilistic Contrastive Fusion [80.79938369319152]
我々は,PCF(Probabilis-tic Contrastive Fusion)に基づくPCF-Liftという新しいパイプラインを設計する。
私たちのPCFリフトは、ScanNetデータセットやMessy Roomデータセット(シーンレベルのPQが4.4%改善)など、広く使用されているベンチマークにおいて、最先端の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T16:06:59Z) - Enhanced fringe-to-phase framework using deep learning [2.243491254050456]
本稿では、2つのフランジ画像を絶対位相に変換する対称核融合ネットワークであるSFNetを紹介する。
出力信頼性を向上させるため,本フレームワークでは,入力として使用するものと異なる周波数のフリンジ画像から情報を取り込むことにより,洗練された位相を予測する。
論文 参考訳(メタデータ) (2024-02-01T19:47:34Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - Weakly-Supervised Optical Flow Estimation for Time-of-Flight [11.496094830445054]
再構成深度に直接光フローネットワークを監視できるトレーニングアルゴリズムを提案する。
本手法により,iToF深度画像における生のiToF測定値の整列と運動成果物の補償を可能にする。
論文 参考訳(メタデータ) (2022-10-11T09:47:23Z) - Deep Learning-enabled Spatial Phase Unwrapping for 3D Measurement [7.104399331837426]
単一周波数パターンを投影する単一カメラシステムは、FPP(Fringe Projection Profilometry)システムの中で理想的な選択肢である。
本稿では,FPPにおける頑健なSPUに対して,ディープラーニングと従来の経路追従を組み合わせたハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2022-08-06T14:19:03Z) - FOF: Learning Fourier Occupancy Field for Monocular Real-time Human
Reconstruction [73.85709132666626]
パラメトリックモデル、ボクセルグリッド、メッシュ、暗黙のニューラル表現といった既存の表現は、高品質な結果とリアルタイムなスピードを同時に達成することが困難である。
本稿では,モノクラーリアルタイムかつ高精度な人体再構成のための,新しい強力で効率的で柔軟な3次元表現であるFourier Occupancy Field (FOF)を提案する。
FOFは、2D畳み込みニューラルネットワークと互換性があり、3D画像と2D画像のギャップを埋めることのできるマルチチャネル画像として保存することができる。
論文 参考訳(メタデータ) (2022-06-05T14:45:02Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - Fully Convolutional Line Parsing [25.80938920093857]
画像から線分を検出する一段階のF-Clip(Fully Convolutional Line Parsing Network)を提案する。
F-Clipは、各行の中央位置、長さ、角度で予測することで、ラインセグメントをエンドツーエンドで検出する。
広範な実験を行い,本手法が効率と精度のトレードオフを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-04-22T17:41:12Z) - Holistically-Attracted Wireframe Parsing [123.58263152571952]
本稿では,入力画像中のベクトル化ワイヤフレームを1つのフォワードパスで検出する高速で類似的な解析手法を提案する。
提案手法は, (i) ラインセグメントとジャンクション提案生成, (ii) ラインセグメントとジャンクションマッチング, (iii) ラインセグメントとジャンクション検証の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-03-03T17:43:57Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。