論文の概要: Dense Depth from Event Focal Stack
- arxiv url: http://arxiv.org/abs/2412.08120v1
- Date: Wed, 11 Dec 2024 06:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:04:21.587390
- Title: Dense Depth from Event Focal Stack
- Title(参考訳): Event Focal StackからのDense Depth
- Authors: Kenta Horikawa, Mariko Isogawa, Hideo Saito, Shohei Mori,
- Abstract要約: 本稿では,イベントカメラに装着した駆動レンズの焦点面を掃除する際に発生するイベントストリームからの深度推定手法を提案する。
イベントストリームからなるイベント焦点スタック''から、合成イベント焦点スタックでトレーニングされた畳み込みニューラルネットワークを用いて、深度マップを推論する。
- 参考スコア(独自算出の注目度): 11.36118641749122
- License:
- Abstract: We propose a method for dense depth estimation from an event stream generated when sweeping the focal plane of the driving lens attached to an event camera. In this method, a depth map is inferred from an ``event focal stack'' composed of the event stream using a convolutional neural network trained with synthesized event focal stacks. The synthesized event stream is created from a focal stack generated by Blender for any arbitrary 3D scene. This allows for training on scenes with diverse structures. Additionally, we explored methods to eliminate the domain gap between real event streams and synthetic event streams. Our method demonstrates superior performance over a depth-from-defocus method in the image domain on synthetic and real datasets.
- Abstract(参考訳): 本稿では,イベントカメラに装着した駆動レンズの焦点面を掃除する際に発生するイベントストリームからの深度推定手法を提案する。
この方法では、合成イベント焦点スタックで訓練された畳み込みニューラルネットワークを用いて、イベントストリームからなる‘event focal stack’’から深度マップを推定する。
合成されたイベントストリームは、任意の3Dシーンに対してBlenderによって生成された焦点スタックから生成される。
これにより、多様な構造を持つシーンでのトレーニングが可能になる。
さらに,実イベントストリームと合成イベントストリームの領域ギャップを解消する手法についても検討した。
本手法は,合成および実データを用いた画像領域におけるデフォーカス法よりも優れた性能を示す。
関連論文リスト
- Depth Estimation Based on 3D Gaussian Splatting Siamese Defocus [14.354405484663285]
本稿では,3次元幾何学における深さ推定のための3次元ガウススプラッティングとシームズネットワークに基づく自己教師型フレームワークを提案する。
提案したフレームワークは、人工的に合成されたデータセットと実際のぼやけたデータセットの両方で検証されている。
論文 参考訳(メタデータ) (2024-09-18T21:36:37Z) - E$^3$NeRF: Efficient Event-Enhanced Neural Radiance Fields from Blurry Images [25.304680391243537]
E$3$NeRFの高効率イベント強化型NeRFを提案する。
イベントストリームからの時空間情報を利用して,時間的ぼやけから学習注意を均等に分散する。
合成データと実世界のデータの両方の実験により、E$3$NeRFはぼやけた画像から鋭いNeRFを効果的に学習できることを示した。
論文 参考訳(メタデータ) (2024-08-03T18:47:31Z) - Learning Monocular Depth from Focus with Event Focal Stack [6.200121342586474]
イベントフォカルスタックからスパース深さを推定するEDFFネットワークを提案する。
イベントボクセルグリッドを用いて、強度変化情報とプロジェクトイベント時間表面を深度領域にエンコードする。
上記の情報を融合させるために、Focal-Distance-Guided Cross-Modal Attention Moduleが提示される。
論文 参考訳(メタデータ) (2024-05-11T07:54:49Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Learning Parallax for Stereo Event-based Motion Deblurring [8.201943408103995]
既存のアプローチは、インテンシティ・イメージとイベントの間の完全なピクセルワイド・アライメントに依存している。
我々は,Stereoイベントと強度カメラ(St-EDNet)を併用したイベントベース動作のNetwork of Event-based motionを提案する。
我々はSTEIC(Stereo Event and Intensity Cameras)を用いた新しいデータセットを構築し、現実世界のイベント、強度画像、密度の異なるマップを含む。
論文 参考訳(メタデータ) (2023-09-18T06:51:41Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Geometric Scene Refocusing [9.198471344145092]
本研究では,焦点スタックの文脈における浅層深度画像の微視的特徴について検討する。
焦点内画素、二重焦点画素、焦点スライス間のボケと空間的に異なるぼやけたカーネルを示す画素を同定する。
幾何的に正しい方法で捕獲後再フォーカスのための包括的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-20T06:33:55Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。