論文の概要: Comprehensive Machine Learning Benchmarking for Fringe Projection Profilometry with Photorealistic Synthetic Data
- arxiv url: http://arxiv.org/abs/2601.08900v1
- Date: Tue, 13 Jan 2026 18:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.133147
- Title: Comprehensive Machine Learning Benchmarking for Fringe Projection Profilometry with Photorealistic Synthetic Data
- Title(参考訳): フォトリアリスティック合成データを用いたフランジ投影プロファイロメトリーの総合的機械学習ベンチマーク
- Authors: Anush Lakshman S, Adam Haroon, Beiwen Li,
- Abstract要約: 本稿では、屈曲プロファイロメトリーのためのオープンソースのフォトリアリスティック合成データセットについて紹介する。
NVIDIA Isaac Simは、50の多様なオブジェクトにわたる15,600の縁の画像と300の深さ再構成を生成するために使われた。
- 参考スコア(独自算出の注目度): 0.030586855806896046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning approaches for fringe projection profilometry (FPP) are hindered by the lack of large, diverse datasets and comprehensive benchmarking protocols. This paper introduces the first open-source, photorealistic synthetic dataset for FPP, generated using NVIDIA Isaac Sim with 15,600 fringe images and 300 depth reconstructions across 50 diverse objects. We benchmark four neural network architectures (UNet, Hformer, ResUNet, Pix2Pix) on single-shot depth reconstruction, revealing that all models achieve similar performance (58-77 mm RMSE) despite substantial architectural differences. Our results demonstrate fundamental limitations of direct fringe-to-depth mapping without explicit phase information, with reconstruction errors approaching 75-95\% of the typical object depth range. This resource provides standardized evaluation protocols enabling systematic comparison and development of learning-based FPP approaches.
- Abstract(参考訳): フリンジプロジェクションプロファイロメトリー(FPP)の機械学習アプローチは、大規模で多様なデータセットと包括的なベンチマークプロトコルの欠如によって妨げられている。
本稿では, NVIDIA Isaac SimによるFPP用オープンソースフォトリアリスティック合成データセットについて紹介する。
ニューラルネットワークアーキテクチャ(UNet, Hformer, ResUNet, Pix2Pix)を1ショットの深度再構成でベンチマークし, アーキテクチャ上の大きな違いにもかかわらず, すべてのモデルが同様の性能(58-77 mm RMSE)を達成することを明らかにした。
以上の結果から, 直交深度マッピングの基本的な限界が明らかとなり, 典型的対象深度範囲の75~95%に近づいた再構成誤差が示唆された。
このリソースは、学習ベースのFPPアプローチの体系的比較と開発を可能にする標準化された評価プロトコルを提供する。
関連論文リスト
- DepR: Depth Guided Single-view Scene Reconstruction with Instance-level Diffusion [59.25479674775212]
DepRは深度誘導のシングルビューシーン再構築フレームワークである。
個々のオブジェクトを生成し、それらをコヒーレントな3Dレイアウトに構成する。
限られた合成データで訓練されているにもかかわらず、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-07-30T16:40:46Z) - CAE-Net: Generalized Deepfake Image Detection using Convolution and Attention Mechanisms with Spatial and Frequency Domain Features [0.6700983301090583]
クラス不均衡に対処し,アンサンブルベースのアーキテクチャであるemphCAE-Netを考案した。
私たちのアーキテクチャは、畳み込みと注目に基づくアンサンブルネットワークで構成されており、3つの異なるニューラルネットワークアーキテクチャを採用している。
EfficientNet B0アーキテクチャは90.79%、ConvNeXtアーキテクチャは89.49%、DeiTアーキテクチャは89.32%である。
論文 参考訳(メタデータ) (2025-02-15T06:02:11Z) - Parameter-Inverted Image Pyramid Networks for Visual Perception and Multimodal Understanding [49.218195440600354]
現在の画像ピラミッドは、複数の解像度を処理するために同じ大規模なモデルを使用しており、計算コストを大幅に上回っている。
我々はCOCO変換画像ピラミッドネットワーク(PIIP)と呼ばれる新しいネットワークアーキテクチャを提案する。
PIIPは、事前訓練されたモデル(ViTまたはCNN)を、より小さなネットワークブランチによって高解像度の画像が処理され、計算コストと性能のバランスをとるマルチスケールイメージの処理に使用する。
論文 参考訳(メタデータ) (2025-01-14T01:57:41Z) - Enhanced Encoder-Decoder Architecture for Accurate Monocular Depth Estimation [0.0]
本稿では,拡張エンコーダデコーダアーキテクチャを用いた新しい深層学習手法を提案する。
マルチスケールの特徴抽出を取り入れ、様々な物体の大きさと距離の深さ予測精度を高める。
KITTIデータセットによる実験結果から,本モデルでは0.019秒でかなり高速な推定時間を達成できた。
論文 参考訳(メタデータ) (2024-10-15T13:46:19Z) - Glimpse: Generalized Locality for Scalable and Robust CT [10.657105348034753]
我々はGlimpseを紹介した。Glimpseは計算トモグラフィーのための局所座標に基づくニューラルネットワークで、ピクセルの近傍に付随する測定のみを処理することによって画素値を再構成する。
Glimpseは、OODサンプル上で成功したCNNよりも大幅に優れ、分散テストデータにおいて同等またはより良いパフォーマンスを実現している。
Glimpseは完全に微分可能で、任意のディープラーニングアーキテクチャでプラグイン・アンド・プレイで使用することができる。
論文 参考訳(メタデータ) (2024-01-01T17:15:42Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Single-shot fringe projection profilometry based on Deep Learning and
Computer Graphics [0.7734726150561088]
仮想フリンジプロフィロメトリシステムを構築するために,コンピュータグラフィックスを導入する。
また、1つの縁画像から深度画像を正確に推定することを目的として、新たな損失関数を設計する。
U-Net と pix2pix の2つの代表ネットワークを複数の側面で比較する。
論文 参考訳(メタデータ) (2021-01-04T07:42:37Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。