論文の概要: Passive Non-line-of-sight Imaging for Moving Targets with an Event
Camera
- arxiv url: http://arxiv.org/abs/2209.13300v1
- Date: Tue, 27 Sep 2022 10:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:46:23.733059
- Title: Passive Non-line-of-sight Imaging for Moving Targets with an Event
Camera
- Title(参考訳): イベントカメラを用いた移動物体のパッシブ非視線イメージング
- Authors: Conghe Wang (1), Yutong He (2), Xia Wang (1), Honghao Huang (2),
Changda Yan (1), Xin Zhang (1) and Hongwei Chen (2)((1) Key Laboratory of
Photoelectronic Imaging Technology and System of Ministry of Education of
China, School of Optics and Photonics, Beijing Institute of Technology (2)
Beijing National Research Center for Information Science and Technology
(BNRist), Department of Electronic Engineering, Tsinghua University)
- Abstract要約: 非視線イメージング(NLOS: Non-line-of-Sight Imaging)は、障害物や角の向こう側の物体を検出する新しい技術である。
受動NLOSの最近の研究は、主に定常測定と再構成方法に焦点を当てている。
イベントベースの受動NLOSイメージング手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-line-of-sight (NLOS) imaging is an emerging technique for detecting
objects behind obstacles or around corners. Recent studies on passive NLOS
mainly focus on steady-state measurement and reconstruction methods, which show
limitations in recognition of moving targets. To the best of our knowledge, we
propose a novel event-based passive NLOS imaging method. We acquire
asynchronous event-based data which contains detailed dynamic information of
the NLOS target, and efficiently ease the degradation of speckle caused by
movement. Besides, we create the first event-based NLOS imaging dataset,
NLOS-ES, and the event-based feature is extracted by time-surface
representation. We compare the reconstructions through event-based data with
frame-based data. The event-based method performs well on PSNR and LPIPS, which
is 20% and 10% better than frame-based method, while the data volume takes only
2% of traditional method.
- Abstract(参考訳): non-line-of-sight (nlos)イメージングは障害物の後ろや角の周りで物体を検出する新しい技術である。
受動NLOSの最近の研究は、移動目標認識の限界を示す定常測定と再構成に主に焦点をあてている。
我々はこの知識を最大限に活用するために,新しいイベントベース受動的nlosイメージング手法を提案する。
我々はNLOSターゲットの詳細な動的情報を含む非同期イベントベースデータを取得し、移動に伴うスペックル劣化を効率的に緩和する。
さらに、最初のイベントベースNLOSイメージングデータセットであるNLOS-ESを作成し、イベントベースの特徴を時間面表現によって抽出する。
イベントベースデータによる再構成とフレームベースデータを比較した。
このイベントベースの方法はpsnrとlpipsでうまく動作し、フレームベースの方法より20%と10%優れているが、データボリュームは従来の方法のわずか2%である。
関連論文リスト
- Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - Event-assisted Low-Light Video Object Segmentation [47.28027938310957]
イベントカメラは、このような低照度条件下でオブジェクトの可視性を高め、VOSメソッドを支援することを約束する。
本稿では、イベントカメラデータを利用してセグメンテーション精度を向上させる、低照度VOSに適した先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T13:41:22Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Relating Events and Frames Based on Self-Supervised Learning and
Uncorrelated Conditioning for Unsupervised Domain Adaptation [23.871860648919593]
イベントベースのカメラは、コンピュータビジョンタスクを実行するための正確かつ高時間分解能の測定を提供する。
それらの利点にもかかわらず、イベントベースのビジョンにディープラーニングを活用することは、注釈付きデータの不足のために大きな障害に直面する。
本稿では、イベントベースの未注釈データに基づいて、注釈付きフレームベースのデータに基づいてトレーニングされたディープニューラルネットワークを適用するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-02T05:10:08Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。