論文の概要: Blind Time-of-Flight Imaging: Sparse Deconvolution on the Continuum with Unknown Kernels
- arxiv url: http://arxiv.org/abs/2411.00893v1
- Date: Thu, 31 Oct 2024 22:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:26:58.203586
- Title: Blind Time-of-Flight Imaging: Sparse Deconvolution on the Continuum with Unknown Kernels
- Title(参考訳): Blind Time-of-Flight Imaging: 未知のカーネルによる連続体上のスパースデコンボリューション
- Authors: Ruiming Guo, Ayush Bhandari,
- Abstract要約: ToF (Computer Time-of-Flight) イメージングは、エキサイティングで新しい画像モダリティとして登場した。
本稿では,カーネルキャリブレーションを必要とせず,連続体上のスパーススパイクを回復する新しいToFイメージング手法を提案する。
- 参考スコア(独自算出の注目度): 8.59982222642104
- License:
- Abstract: In recent years, computational Time-of-Flight (ToF) imaging has emerged as an exciting and a novel imaging modality that offers new and powerful interpretations of natural scenes, with applications extending to 3D, light-in-flight, and non-line-of-sight imaging. Mathematically, ToF imaging relies on algorithmic super-resolution, as the back-scattered sparse light echoes lie on a finer time resolution than what digital devices can capture. Traditional methods necessitate knowledge of the emitted light pulses or kernels and employ sparse deconvolution to recover scenes. Unlike previous approaches, this paper introduces a novel, blind ToF imaging technique that does not require kernel calibration and recovers sparse spikes on a continuum, rather than a discrete grid. By studying the shared characteristics of various ToF modalities, we capitalize on the fact that most physical pulses approximately satisfy the Strang-Fix conditions from approximation theory. This leads to a new mathematical formulation for sparse super-resolution. Our recovery approach uses an optimization method that is pivoted on an alternating minimization strategy. We benchmark our blind ToF method against traditional kernel calibration methods, which serve as the baseline. Extensive hardware experiments across different ToF modalities demonstrate the algorithmic advantages, flexibility and empirical robustness of our approach. We show that our work facilitates super-resolution in scenarios where distinguishing between closely spaced objects is challenging, while maintaining performance comparable to known kernel situations. Examples of light-in-flight imaging and light-sweep videos highlight the practical benefits of our blind super-resolution method in enhancing the understanding of natural scenes.
- Abstract(参考訳): 近年、計算時間(ToF)イメージングは、自然のシーンの新しい強力な解釈を提供する、エキサイティングで新しい画像モダリティとして登場し、用途は3D、ライト・イン・フライ、非視線イメージングまで拡大している。
数学的には、ToFイメージングはアルゴリズムによる超解像に依存している。
従来の方法では、発光した光パルスまたは核の知識を必要とし、シーンを回復するためにスパースデコンボリューションを用いる。
従来の手法とは違って,カーネルキャリブレーションを必要とせず,離散格子ではなく連続体上のスパーススパイクを回復する,新しい視覚的ToFイメージング手法を提案する。
種々のToFモダリティの共有特性を研究することにより、ほとんどの物理パルスが近似理論からStrang-Fix条件をほぼ満たしているという事実に乗じる。
これはスパース超解像の新しい数学的定式化につながる。
我々のリカバリ手法は、交互に最小化戦略をピボットする最適化手法を用いる。
我々は,従来のカーネルキャリブレーション法に対してブラインドToF法をベンチマークし,ベースラインとして機能する。
様々なToFモダリティにわたる広範なハードウェア実験は、我々のアプローチのアルゴリズム上の利点、柔軟性および経験的堅牢性を示している。
我々の研究は、既知のカーネル状況に匹敵する性能を維持しながら、密集したオブジェクトの区別が困難であるシナリオにおいて、超解像化を促進することを示す。
飛行中のライト・イン・フット・イメージングやライト・スウィープ・ビデオの例は、自然界の理解を高めるための盲目超解像法(英語版)の実用的利点を浮き彫りにしている。
関連論文リスト
- XR-VIO: High-precision Visual Inertial Odometry with Fast Initialization for XR Applications [34.2082611110639]
本稿では,視覚慣性オドメトリー(VIO)に対する新しいアプローチとして,初期化と特徴マッチングモジュールについて述べる。
ジャイロスコープの既存の方法は、運動からの視覚構造(SfM)の安定性の低下や、膨大な数のパラメータの同時解決に悩まされることが多い。
測定値の密結合により,視覚的SfMの堅牢性と精度が向上する。
特徴マッチングに関しては,光学フローとディスクリプタベースマッチングを組み合わせたハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T12:17:51Z) - Multi-Frame Blind Manifold Deconvolution for Rotating Synthetic Aperture Imaging [4.19203497706834]
回転合成開口(RSA)撮像システムは、矩形開口を回転させることにより、ターゲットシーンの画像を異なる回転角度でキャプチャする。
取得したRSA画像を損なうことは、シーンの裏側にある潜伏したシャープなイメージを再構築する上で重要な役割を担っている。
本稿では, ブラインドコンボリューションの内容に対する多様体フィッティングとペナル化を用いた新しいRSA画像処理法を提案する。
論文 参考訳(メタデータ) (2025-01-31T18:39:47Z) - DAE-Fuse: An Adaptive Discriminative Autoencoder for Multi-Modality Image Fusion [10.713089596405053]
DAE-Fuseは,鮮明で自然な融合画像を生成する2相識別型自動エンコーダフレームワークである。
静止画像からビデオ領域への画像融合技術の拡張を開拓した。
DaE-Fuseは、複数のベンチマークで最先端のパフォーマンスを実現し、医用画像融合のようなタスクに優れた一般化性を持つ。
論文 参考訳(メタデータ) (2024-09-16T08:37:09Z) - Self-Supervised Single-Image Deconvolution with Siamese Neural Networks [6.138671548064356]
画像再構成における逆問題は、未知のノイズ特性によって根本的に複雑である。
ディープラーニングの手法は、ノイズのフレキシブルなパラメトリゼーションを可能にし、データから直接その特性を学習する。
我々は3次元デコンボリューションタスクにおけるトレーニング速度アップを提供する高速フーリエ変換畳み込み問題に対処する。
論文 参考訳(メタデータ) (2023-08-18T09:51:11Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - DWDN: Deep Wiener Deconvolution Network for Non-Blind Image Deblurring [66.91879314310842]
本稿では,古典的なWienerデコンボリューションフレームワークを学習深い特徴と統合することにより,特徴空間における明示的なデコンボリューションプロセスを提案する。
マルチスケールのカスケード機能改善モジュールは、分離された深い特徴から退色画像を予測する。
提案したDeep Wienerデコンボリューションネットワークは,目に見える成果物が少なく,かつ,最先端の非盲点画像デコンボリューション手法を広いマージンで定量的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-18T00:38:11Z) - Deep Variational Network Toward Blind Image Restoration [60.45350399661175]
ブラインド画像復元はコンピュータビジョンでは一般的だが難しい問題である。
両利点を両立させることを目的として,新しいブラインド画像復元手法を提案する。
画像デノイングと超解像という2つの典型的なブラインド赤外線タスクの実験により,提案手法が現状よりも優れた性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-08-25T03:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。