論文の概要: Weakly-Supervised Optical Flow Estimation for Time-of-Flight
- arxiv url: http://arxiv.org/abs/2210.05298v1
- Date: Tue, 11 Oct 2022 09:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 17:24:54.685184
- Title: Weakly-Supervised Optical Flow Estimation for Time-of-Flight
- Title(参考訳): 飛行時間に対する微弱補正光流量推定
- Authors: Michael Schelling, Pedro Hermosilla, Timo Ropinski
- Abstract要約: 再構成深度に直接光フローネットワークを監視できるトレーニングアルゴリズムを提案する。
本手法により,iToF深度画像における生のiToF測定値の整列と運動成果物の補償を可能にする。
- 参考スコア(独自算出の注目度): 11.496094830445054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Indirect Time-of-Flight (iToF) cameras are a widespread type of 3D sensor,
which perform multiple captures to obtain depth values of the captured scene.
While recent approaches to correct iToF depths achieve high performance when
removing multi-path-interference and sensor noise, little research has been
done to tackle motion artifacts. In this work we propose a training algorithm,
which allows to supervise Optical Flow (OF) networks directly on the
reconstructed depth, without the need of having ground truth flows. We
demonstrate that this approach enables the training of OF networks to align raw
iToF measurements and compensate motion artifacts in the iToF depth images. The
approach is evaluated for both single- and multi-frequency sensors as well as
multi-tap sensors, and is able to outperform other motion compensation
techniques.
- Abstract(参考訳): iToF(Indirect Time-of-Flight)カメラは、撮影シーンの深度値を得るために複数のキャプチャを行う3Dセンサーの一種である。
近年,マルチパス干渉やセンサノイズ除去時の奥行き補正手法が高性能化されているが,動作アーチファクトに取り組むための研究はほとんど行われていない。
本研究では,基底真理流を必要とせずに,再構成された深さで直接光フロー(of)ネットワークを監視できるトレーニングアルゴリズムを提案する。
本手法により,iToF深度画像における生のiToF測定値の整列と運動成果物の補償を可能にする。
このアプローチは、シングルおよびマルチ周波数センサーとマルチタップセンサーの両方で評価され、他のモーション補償技術よりも優れています。
関連論文リスト
- UFD-PRiME: Unsupervised Joint Learning of Optical Flow and Stereo Depth
through Pixel-Level Rigid Motion Estimation [4.445751695675388]
光の流れとステレオの相違は画像の一致であり、そのため関節トレーニングの恩恵を受けることができる。
我々は、フローと格差を共同で推定し、監督なしに訓練される最初のネットワークを設計する。
第2のネットワークは、第1のネットワークから擬似ラベルとして光学的流れを訓練し、第1のネットワークから格差を取り、各ピクセルにおける3次元剛性運動を推定し、再び光学的流れを再構築する。
論文 参考訳(メタデータ) (2023-10-07T07:08:25Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z) - Thermal Image Processing via Physics-Inspired Deep Networks [21.094006629684376]
DeepIRは、物理的に正確なセンサーモデリングとディープネットワークベースのイメージ表現を組み合わせる。
DeepIRは、トレーニングデータや、既知のブラックボディターゲットによる定期的な地平線校正を必要としない。
シミュレーションおよび実データ実験により、DeepIRは3つの画像で高品質な非均一性補正を行うことができることを示した。
論文 参考訳(メタデータ) (2021-08-18T04:57:48Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Video Depth Estimation by Fusing Flow-to-Depth Proposals [65.24533384679657]
本稿では,映像深度推定のためのフロー・ツー・ディープス・レイヤの異なる手法を提案する。
モデルは、フロー・トゥ・ディープス層、カメラ・ポーズ・リファインメント・モジュール、ディープ・フュージョン・ネットワークから構成される。
提案手法は,最先端の深度推定法より優れ,合理的なデータセット一般化能力を有する。
論文 参考訳(メタデータ) (2019-12-30T10:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。