論文の概要: Transferring dense object detection models to event-based data
- arxiv url: http://arxiv.org/abs/2210.02607v1
- Date: Wed, 5 Oct 2022 23:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:46:38.246187
- Title: Transferring dense object detection models to event-based data
- Title(参考訳): イベントベースデータへの高密度物体検出モデル転送
- Authors: Vincenz Mechler and Pavel Rojtberg
- Abstract要約: イベントベースの画像表現は、従来の濃密な画像と根本的に異なる。
イベントデータからYOLOオブジェクト検出モデルを評価する。
本研究では,現在のスパース・コンボリューションの実装では,理論上の低い計算要求を改良されたランタイムに変換することができないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Event-based image representations are fundamentally different to traditional
dense images. This poses a challenge to apply current state-of-the-art models
for object detection as they are designed for dense images. In this work we
evaluate the YOLO object detection model on event data. To this end we replace
dense-convolution layers by either sparse convolutions or asynchronous sparse
convolutions which enables direct processing of event-based images and compare
the performance and runtime to feeding event-histograms into
dense-convolutions. Here, hyper-parameters are shared across all variants to
isolate the effect sparse-representation has on detection performance.
At this, we show that current sparse-convolution implementations cannot
translate their theoretical lower computation requirements into an improved
runtime.
- Abstract(参考訳): イベントベースの画像表現は、従来の濃密な画像と根本的に異なる。
これは、高密度画像のために設計されたオブジェクト検出に現在の最先端モデルを適用することが課題となる。
本研究では,イベントデータに基づくyoloオブジェクト検出モデルを評価する。
これにより、イベントベースのイメージを直接処理し、パフォーマンスとランタイムとイベントヒストグラムを集中畳み込みに供給するパフォーマンスとランタイムを比較することができる。
ここで、ハイパーパラメータは全ての変種で共有され、スパース表現が検出性能に与える影響を分離する。
そこで本研究では,現在のスパース畳み込み実装では,理論的に低い計算条件を改良されたランタイムに変換することができないことを示す。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Evaluating Image-Based Face and Eye Tracking with Event Cameras [9.677797822200965]
イベントカメラはニューロモルフィックセンサーとしても知られており、ピクセルレベルの局所光強度の変化を捉え、非同期に生成されたイベントと呼ばれるデータを生成する。
このデータフォーマットは、高速で動く物体を撮影する際のアンダーサンプリングのような、従来のカメラで観察される一般的な問題を緩和する。
我々は、従来のアルゴリズムとイベントベースのデータを統合することにより、フレーム形式に変換される可能性を評価する。
論文 参考訳(メタデータ) (2024-08-19T20:27:08Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Revisiting Sparse Convolutional Model for Visual Recognition [40.726494290922204]
本稿では,画像分類のためのスパース畳み込みモデルについて再検討する。
CIFAR-10, CIFAR-100, ImageNetデータセット上でも同様に強力な実験性能を示した。
論文 参考訳(メタデータ) (2022-10-24T04:29:21Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。