論文の概要: EVEN: An Event-Based Framework for Monocular Depth Estimation at Adverse
Night Conditions
- arxiv url: http://arxiv.org/abs/2302.03860v1
- Date: Wed, 8 Feb 2023 03:35:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 17:22:52.844933
- Title: EVEN: An Event-Based Framework for Monocular Depth Estimation at Adverse
Night Conditions
- Title(参考訳): EVEN: 逆夜間における単眼深度推定のためのイベントベースフレームワーク
- Authors: Peilun Shi, Jiachuan Peng, Jianing Qiu, Xinwei Ju, Frank Po Wen Lo,
and Benny Lo
- Abstract要約: 様々な悪天候・光・異なる道路条件が存在する夜間の単眼深度推定について検討した。
我々は、RGBソースの低照度化を統合し、RGBとイベントデータの利点を活用するイベントビジョンベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.390463371184566
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate depth estimation under adverse night conditions has practical impact
and applications, such as on autonomous driving and rescue robots. In this
work, we studied monocular depth estimation at night time in which various
adverse weather, light, and different road conditions exist, with data captured
in both RGB and event modalities. Event camera can better capture intensity
changes by virtue of its high dynamic range (HDR), which is particularly
suitable to be applied at adverse night conditions in which the amount of light
is limited in the scene. Although event data can retain visual perception that
conventional RGB camera may fail to capture, the lack of texture and color
information of event data hinders its applicability to accurately estimate
depth alone. To tackle this problem, we propose an event-vision based framework
that integrates low-light enhancement for the RGB source, and exploits the
complementary merits of RGB and event data. A dataset that includes paired RGB
and event streams, and ground truth depth maps has been constructed.
Comprehensive experiments have been conducted, and the impact of different
adverse weather combinations on the performance of framework has also been
investigated. The results have shown that our proposed framework can better
estimate monocular depth at adverse nights than six baselines.
- Abstract(参考訳): 悪条件下での正確な深度推定は、自律運転や救助ロボットなど、実用的な影響と応用をもたらす。
本研究では,RGBとイベントの両モードで収集したデータを用いて,悪天候,光,異なる道路条件が存在する夜間の単眼深度推定について検討した。
イベントカメラは、高ダイナミックレンジ(hdr)によって強度の変化をよりよく捉えることができ、特にシーン内で光の量が制限された夜の状況に適用するのに適している。
イベントデータは、従来のrgbカメラがキャプチャできないという視覚知覚を保持できるが、イベントデータのテクスチャや色情報の欠如は、深度を正確に推定する可能性を妨げる。
この問題に対処するために、RGBソースの低照度化を統合し、RGBとイベントデータの相補的な利点を利用するイベントビジョンベースのフレームワークを提案する。
ペア化されたRGBとイベントストリーム、地上の真理深度マップを含むデータセットが構築されている。
総合的な実験を行い、異なる悪天候の組み合わせがフレームワークの性能に及ぼす影響についても検討した。
その結果,提案フレームワークは6つのベースラインよりも,夜間に単眼深度を推定できることがわかった。
関連論文リスト
- LED: Light Enhanced Depth Estimation at Night [10.941842055797125]
低照度環境における深度推定を大幅に改善する新しいコスト効率のアプローチであるLED(Light Enhanced Depth)を導入する。
LEDは、現代の車両で利用できる高解像度ヘッドライトによって投影されるパターンを利用する。
49,990の注釈付き画像からなるNighttime Synthetic Driveデータセットをリリースする。
論文 参考訳(メタデータ) (2024-09-12T13:23:24Z) - Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z) - Self-supervised Event-based Monocular Depth Estimation using Cross-modal
Consistency [18.288912105820167]
EMoDepth という自己教師型イベントベース単眼深度推定フレームワークを提案する。
EMoDepthは、ピクセル座標内のイベントに整合した強度フレームからのクロスモーダル一貫性を使用して、トレーニングプロセスを制約する。
推論では、単分子深度予測にはイベントのみを使用する。
論文 参考訳(メタデータ) (2024-01-14T07:16:52Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Chasing Day and Night: Towards Robust and Efficient All-Day Object Detection Guided by an Event Camera [8.673063170884591]
EOLOは、RGBとイベントモダリティの両方を融合させることで、堅牢で効率的な全日検出を実現する、新しいオブジェクト検出フレームワークである。
我々のEOLOフレームワークは、イベントの非同期特性を効率的に活用するために、軽量スパイキングニューラルネットワーク(SNN)に基づいて構築されている。
論文 参考訳(メタデータ) (2023-09-17T15:14:01Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Multi Visual Modality Fall Detection Dataset [4.00152916049695]
転倒は、世界中の高齢者の怪我による死亡の主な原因の1つだ。
効果的なフォールの検出は、合併症や怪我のリスクを減らすことができる。
しかし、通常のRGBカメラは照明条件やプライバシーの懸念によって影響を受ける。
論文 参考訳(メタデータ) (2022-06-25T21:54:26Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。