論文の概要: VoxDepth: Rectification of Depth Images on Edge Devices
- arxiv url: http://arxiv.org/abs/2407.15067v1
- Date: Sun, 21 Jul 2024 05:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 19:28:49.220159
- Title: VoxDepth: Rectification of Depth Images on Edge Devices
- Title(参考訳): VoxDepth:エッジデバイス上での深度画像の再現
- Authors: Yashashwee Chakrabarty, Smruti Ranjan Sarangi,
- Abstract要約: VoxDepthは高速で正確で、エッジデバイス上でも非常にうまく動作する。
これは3Dポイントクラウドの構築と融合に依存しており、誤って深度画像を修正するテンプレートを作成するのに使われている。
実世界の深度データセットの最先端手法と比較して,品質が31%向上したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous mobile robots like self-flying drones and industrial robots heavily depend on depth images to perform tasks such as 3D reconstruction and visual SLAM. However, the presence of inaccuracies in these depth images can greatly hinder the effectiveness of these applications, resulting in sub-optimal results. Depth images produced by commercially available cameras frequently exhibit noise, which manifests as flickering pixels and erroneous patches. ML-based methods to rectify these images are unsuitable for edge devices that have very limited computational resources. Non-ML methods are much faster but have limited accuracy, especially for correcting errors that are a result of occlusion and camera movement. We propose a scheme called VoxDepth that is fast, accurate, and runs very well on edge devices. It relies on a host of novel techniques: 3D point cloud construction and fusion, and using it to create a template that can fix erroneous depth images. VoxDepth shows superior results on both synthetic and real-world datasets. We demonstrate a 31% improvement in quality as compared to state-of-the-art methods on real-world depth datasets, while maintaining a competitive framerate of 27 FPS (frames per second).
- Abstract(参考訳): 自律飛行ドローンや産業用ロボットのような自律移動ロボットは、3D再構成や視覚SLAMといったタスクを実行するために深度画像に大きく依存している。
しかし、これらの深度画像に不正確さが存在することは、これらの応用の有効性を著しく損なう可能性があり、その結果、準最適結果となる。
市販のカメラが生み出す深度画像は、しばしばノイズを呈し、ピクセルや間違ったパッチを点滅させる。
これらの画像を修正するためのMLベースの手法は、非常に限られた計算資源を持つエッジデバイスには適さない。
非ML法はより高速だが精度は限られており、特に閉塞やカメラの動きによる誤差を補正する。
本稿では,VoxDepthと呼ばれる高速で高精度で,エッジデバイス上での動作が極めて良好である手法を提案する。
3Dポイントクラウドの構築と融合という,新しいテクニックのホストに依存しています。
VoxDepthは、合成データセットと実世界のデータセットの両方で優れた結果を示している。
実世界の深度データセットの最先端手法と比較して,27FPS(フレーム毎秒)の競合フレームレートを維持しながら,品質の31%向上を示す。
関連論文リスト
- EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - RoGUENeRF: A Robust Geometry-Consistent Universal Enhancer for NeRF [1.828790674925926]
2Dエンハンサーは、いくつかの詳細を回復するために事前訓練することができるが、シーン幾何学には依存しない。
既存の3Dエンハンサーは、近隣のトレーニング画像から、一般化可能な方法で詳細を転送することができる。
両パラダイムの長所を生かしたニューラルレンダリングエンハンサーであるRoGUENeRFを提案する。
論文 参考訳(メタデータ) (2024-03-18T16:11:42Z) - Deblurring 3D Gaussian Splatting [7.315329140016319]
MLP(Multi-Layer Perceptron)を用いた3次元ガウス平滑化のための新しいリアルタイムデブロアリングフレームワークを提案する。
Deblurring 3D Gaussian Splattingはリアルタイムレンダリングを楽しめるが、ぼやけた画像から細かで鋭いディテールを再構築することができる。
論文 参考訳(メタデータ) (2024-01-01T18:23:51Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Towards High-Frequency Tracking and Fast Edge-Aware Optimization [2.2662585107579165]
この論文は、AR/VRトラッキングシステムのトラッキング周波数を桁違いに増加させることにより、AR/VRトラッキングシステムの最先端技術である。
エッジ認識最適化問題に対する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-02T01:20:34Z) - Real-Time Radiance Fields for Single-Image Portrait View Synthesis [85.32826349697972]
本研究では,1つの未提示画像からリアルタイムに3D表現を推測・描画するワンショット手法を提案する。
一つのRGB入力が与えられた場合、画像エンコーダは、ボリュームレンダリングによる3次元新規ビュー合成のためのニューラルラディアンスフィールドの標準三面体表現を直接予測する。
提案手法は消費者ハードウェア上で高速(24fps)であり,テスト時間最適化を必要とする強力なGAN反転ベースラインよりも高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-05-03T17:56:01Z) - Towards Nonlinear-Motion-Aware and Occlusion-Robust Rolling Shutter
Correction [54.00007868515432]
既存の手法では、一様速度仮定による補正の精度を推定する上で、課題に直面している。
本稿では,個々の画素の高次補正場を正確に推定する,幾何的回転シャッター(QRS)運動解法を提案する。
提案手法は,Carla-RS,Fastec-RS,BS-RSCの各データセット上で,PSNRの+4.98,+0.77,+4.33を超える。
論文 参考訳(メタデータ) (2023-03-31T15:09:18Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z) - 3D modelling of survey scene from images enhanced with a multi-exposure
fusion [1.7816843507516948]
本稿では,画像の可視性を向上し,最終的に3次元シーンモデルの誤差を低減する手法を提案する。
このアイデアは、画像のデハージングにインスパイアされている。それぞれのオリジナル画像は、まず複数の露光画像に変換される。
拡張画像は、サブミリ平均誤差で3Dシーンモデルを再構成することができる。
論文 参考訳(メタデータ) (2021-11-10T06:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。