論文の概要: A Novel Approach for Neuromorphic Vision Data Compression based on Deep
Belief Network
- arxiv url: http://arxiv.org/abs/2210.15362v1
- Date: Thu, 27 Oct 2022 12:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:30:15.693668
- Title: A Novel Approach for Neuromorphic Vision Data Compression based on Deep
Belief Network
- Title(参考訳): 深層信念ネットワークに基づくニューロモルフィック視覚データ圧縮のための新しいアプローチ
- Authors: Sally Khaidem and Mansi Sharma and Abhipraay Nevatia
- Abstract要約: ニューロモルフィックカメラ(Neuromorphic camera)は、人間の目が局所的な明るさの変化だけを捉えているイメージセンサーである。
本稿では,イベントデータに対する深層学習に基づく新しい圧縮手法を提案する。
- 参考スコア(独自算出の注目度): 0.2578242050187029
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A neuromorphic camera is an image sensor that emulates the human eyes
capturing only changes in local brightness levels. They are widely known as
event cameras, silicon retinas or dynamic vision sensors (DVS). DVS records
asynchronous per-pixel brightness changes, resulting in a stream of events that
encode the brightness change's time, location, and polarity. DVS consumes
little power and can capture a wider dynamic range with no motion blur and
higher temporal resolution than conventional frame-based cameras. Although this
method of event capture results in a lower bit rate than traditional video
capture, it is further compressible. This paper proposes a novel deep
learning-based compression scheme for event data. Using a deep belief network
(DBN), the high dimensional event data is reduced into a latent representation
and later encoded using an entropy-based coding technique. The proposed scheme
is among the first to incorporate deep learning for event compression. It
achieves a high compression ratio while maintaining good reconstruction quality
outperforming state-of-the-art event data coders and other lossless benchmark
techniques.
- Abstract(参考訳): ニューロモルフィックカメラ(Neuromorphic camera)は、人間の目が局所的な明るさの変化だけを捉えているイメージセンサーである。
イベントカメラ、シリコン網膜、ダイナミックビジョンセンサー(DVS)として広く知られている。
dvsは、ピクセル毎の非同期な明るさ変化を記録し、その結果、明るさ変化の時間、位置、極性をエンコードするイベントのストリームを生成する。
dvsは消費電力が少なく、モーションボケや時間分解能が従来のフレームベースのカメラよりも高いダイナミックレンジをキャプチャできる。
この方法では従来のビデオキャプチャよりもビットレートが低いが、圧縮可能である。
本稿では,イベントデータに対する新しい深層学習に基づく圧縮方式を提案する。
深層信念ネットワーク(DBN)を用いて、高次元事象データを潜在表現に還元し、エントロピーベースの符号化技術を用いて符号化する。
提案手法は、イベント圧縮のためのディープラーニングを最初に組み込んだものである。
優れたコンストラクション品質を維持しながら、高い圧縮率を達成し、最先端のイベントデータコーダや他のロスレスベンチマーク技術よりも優れている。
関連論文リスト
- SpikeNVS: Enhancing Novel View Synthesis from Blurry Images via Spike Camera [78.20482568602993]
従来のRGBカメラは、動きがぼやけやすい。
イベントやスパイクカメラのようなニューロモルフィックカメラは、本質的により包括的な時間情報をキャプチャする。
我々の設計は、NeRFと3DGSをまたいだ新しいビュー合成を強化することができる。
論文 参考訳(メタデータ) (2024-04-10T03:31:32Z) - Temporal-Mapping Photography for Event Cameras [5.344756442054121]
イベントカメラ、またはダイナミックビジョンセンサー(DVS)は「イベント」の連続ストリームとして明るさの変化を捉えます。
スパース事象を高密度フレームに忠実に変換することは、長い間不適切な問題であった。
本稿では,静的なシーンにおける静止イベントカメラを用いて,高密度画像変換を行うイベントを初めて実現した。
論文 参考訳(メタデータ) (2024-03-11T05:29:46Z) - Event-based Continuous Color Video Decompression from Single Frames [36.4263932473053]
本研究では,静止RGB画像とイベントカメラストリームから連続映像を生成する新しい手法であるContinuityCamを提案する。
提案手法は、連続した長距離動きモデリングとニューラル合成モデルを組み合わせることで、イベント内の任意のタイミングでフレーム予測を可能にする。
論文 参考訳(メタデータ) (2023-11-30T18:59:23Z) - Neural-based Compression Scheme for Solar Image Data [8.374518151411612]
我々は、NASAのデータ集約画像ミッションで使用されるニューラルネットワークに基づく損失圧縮手法を提案する。
本研究では,画像の局所構造と大域構造の両方を捉えるために,局所的および非局所的アテンションモジュールを備えた逆トレーニングニューラルネットワークを提案する。
このアルゴリズムをSDOデータ解析に使用するための概念実証として、圧縮画像を用いてコロナホール(CH)検出を行った。
論文 参考訳(メタデータ) (2023-11-06T04:13:58Z) - Convolutional Neural Network (CNN) to reduce construction loss in JPEG
compression caused by Discrete Fourier Transform (DFT) [0.0]
畳み込みニューラルネットワーク(CNN)は他の多くのディープニューラルネットワークよりも注目されている。
本研究では,オートエンコーダを用いた効率的な画像圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T12:46:16Z) - Analysis of the Effect of Low-Overhead Lossy Image Compression on the
Performance of Visual Crowd Counting for Smart City Applications [78.55896581882595]
画像圧縮技術は画像の品質を低下させ、精度を低下させる。
本稿では,低オーバヘッド損失画像圧縮法の適用が視覚的群集カウントの精度に与える影響を解析する。
論文 参考訳(メタデータ) (2022-07-20T19:20:03Z) - COIN++: Data Agnostic Neural Compression [55.27113889737545]
COIN++は、幅広いデータモダリティをシームレスに扱うニューラルネットワーク圧縮フレームワークである。
様々なデータモダリティを圧縮することで,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-01-30T20:12:04Z) - Enhanced Invertible Encoding for Learned Image Compression [40.21904131503064]
本稿では,改良されたインバーチブルを提案する。
非可逆ニューラルネットワーク(INN)によるネットワークは、情報損失問題を大幅に軽減し、圧縮性を向上する。
Kodak, CLIC, Tecnick のデータセットによる実験結果から,本手法は既存の学習画像圧縮法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-08T17:32:10Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Reducing the Sim-to-Real Gap for Event Cameras [64.89183456212069]
イベントカメラは、非同期でピクセルごとの明るさ変化を報告し、非並列の低レイテンシで「イベント」と呼ばれるパラダイムシフトする新しいセンサーである。
近年の研究では、コンボリューショナルニューラルネットワーク(CNN)を用いて、映像再構成とイベントによる光学的流れを実証している。
既存のビデオ再構成ネットワークの性能を20~40%向上させるイベントベースCNNのトレーニングデータ改善戦略を提案する。
論文 参考訳(メタデータ) (2020-03-20T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。