論文の概要: Interpolation-Based Event Visual Data Filtering Algorithms
- arxiv url: http://arxiv.org/abs/2507.01557v1
- Date: Wed, 02 Jul 2025 10:13:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.146038
- Title: Interpolation-Based Event Visual Data Filtering Algorithms
- Title(参考訳): 補間に基づくイベントビジュアルデータフィルタリングアルゴリズム
- Authors: Marcin Kowlaczyk, Tomasz Kryjak,
- Abstract要約: 本稿では,有効信号の大部分を保存しながら,約99%のノイズを除去できるイベントデータを提案する。
提案手法では、約30KBのメモリを1280 x 720の解像度のセンサーに使用し、組込みデバイスの実装に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of neuromorphic vision is developing rapidly, and event cameras are finding their way into more and more applications. However, the data stream from these sensors is characterised by significant noise. In this paper, we propose a method for event data that is capable of removing approximately 99\% of noise while preserving the majority of the valid signal. We have proposed four algorithms based on the matrix of infinite impulse response (IIR) filters method. We compared them on several event datasets that were further modified by adding artificially generated noise and noise recorded with dynamic vision sensor. The proposed methods use about 30KB of memory for a sensor with a resolution of 1280 x 720 and is therefore well suited for implementation in embedded devices.
- Abstract(参考訳): ニューロモルフィック・ビジョンの分野は急速に発展しており、イベントカメラはますます多くのアプリケーションへの道を探っている。
しかし、これらのセンサからのデータストリームは、大きなノイズによって特徴づけられる。
本稿では,有効信号の大半を保存しながら,約99%のノイズを除去できるイベントデータを提案する。
本研究では,無限インパルス応答(IIR)フィルタの行列に基づく4つのアルゴリズムを提案する。
動的視覚センサで記録された人工的に生成されたノイズとノイズを付加することにより、さらに改良されたいくつかのイベントデータセットと比較した。
提案手法では、約30KBのメモリを1280 x 720の解像度のセンサーに使用し、組込みデバイスの実装に適している。
関連論文リスト
- High Throughput Event Filtering: The Interpolation-based DIF Algorithm Hardware Architecture [0.0]
本稿では、周波数重みフィルタを用いた距離ベース補間方式のハードウェアアーキテクチャを提案し、FPGAチップ上で実装する。
我々のアーキテクチャは、毎秒403.39万イベントのスループットを達成し、センサー解像度は1280 x 720と428.45 MEPS、解像度は640 x 480である。
AUROC(Area Under the Receiver Operating Characteristics)指数の平均値はデータセットによって0.844から0.999まで変化した。
論文 参考訳(メタデータ) (2025-06-06T07:49:18Z) - Synthesizing and Identifying Noise Levels in Autonomous Vehicle Camera Radar Datasets [2.435006380732195]
我々は、カメラレーダー自律走行車データセットのためのリアルな合成データ拡張パイプラインを作成します。
私たちのゴールは、現実世界の干渉によるセンサーの故障とデータの劣化を正確にシミュレートすることです。
また、ベースラインの軽量ノイズ認識ニューラルネットワークをトレーニングし、拡張データセット上でテストした結果も提示する。
論文 参考訳(メタデータ) (2025-05-01T15:15:50Z) - Noise Filtering Benchmark for Neuromorphic Satellites Observations [39.781091151259766]
イベントカメラはスパース、高時間分解能、高ダイナミックレンジ、低消費電力、スパースデータ出力を提供する非同期の輝度変化をキャプチャする。
これらの利点は、特に望遠鏡の視野内を移動する常駐の宇宙物体を検出するのに、宇宙状況認識に理想的である。
しかしながら、イベントカメラからの出力は、しばしば、低照度条件でより多く見られる背景活動ノイズを含む。
このノイズは衛星信号によって発生するスパース事象を圧倒し、検出と追跡をより困難にする。
論文 参考訳(メタデータ) (2024-11-18T02:02:24Z) - Adaptive Domain Learning for Cross-domain Image Denoising [57.4030317607274]
本稿では,クロスドメイン画像認識のための適応型ドメイン学習手法を提案する。
私たちは、異なるセンサー(ソースドメイン)からの既存のデータに加えて、新しいセンサー(ターゲットドメイン)からの少量のデータを使用します。
ADLトレーニングスキームは、ターゲットドメインのモデルを微調整するのに有害なソースドメイン内のデータを自動的に削除する。
また,センサ固有の情報(センサタイプとISO)を取り入れ,画像認識のための入力データを理解するための変調モジュールも導入した。
論文 参考訳(メタデータ) (2024-11-03T08:08:26Z) - bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Hardware architecture for high throughput event visual data filtering
with matrix of IIR filters algorithm [0.0]
ニューロモルフィック・ビジョンは、自動運転車の知覚システムに多くの応用がある、急速に成長する分野である。
センサの動作原理のため、イベントストリームにはかなりのノイズがあります。
本稿では、このタイプのノイズをフィルタするIIRフィルタ行列と、その加速度を許容するハードウェアアーキテクチャに基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-02T15:18:53Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - EBBINNOT: A Hardware Efficient Hybrid Event-Frame Tracker for Stationary
Dynamic Vision Sensors [5.674895233111088]
本稿では,静止型ニューロモルフィックセンサによって記録された物体を検知・追跡するための複合イベントフレーム手法を提案する。
静的DVSの背景除去特性を活用するために,フレーム内のイベントの有無を通知するイベントベースバイナリ画像生成を提案する。
静止DVSベースのトラフィック監視ソリューションが、同時に記録されたRGBフレームベースの方法と比較されるのは、これが初めてである。
論文 参考訳(メタデータ) (2020-05-31T03:01:35Z) - Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian
Detection [99.94079901071163]
本稿では、ダイナミックビジョンセンサ(DVS)を用いた歩行者検出のための新しいエンドツーエンドシステムを提案する。
我々は、複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにしている。
我々の検出器は450ミリ秒毎に検出を行うことができ、総合的なテストF1スコアは83%である。
論文 参考訳(メタデータ) (2020-04-03T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。