論文の概要: ShapeAug: Occlusion Augmentation for Event Camera Data
- arxiv url: http://arxiv.org/abs/2401.02274v1
- Date: Thu, 4 Jan 2024 13:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 14:54:55.190955
- Title: ShapeAug: Occlusion Augmentation for Event Camera Data
- Title(参考訳): ShapeAug: イベントカメラデータのためのOcclusion Augmentation
- Authors: Katharina Bendig, Ren\'e Schuster, Didier Stricker
- Abstract要約: ダイナミックビジョンセンサ(DVS)のための新しいイベントデータ拡張手法を提案する。
シーン内でランダムに動く物体の合成イベントを紹介する。
提案手法を複数のDVS分類データセットで検証した結果,トップ1精度が最大6.5%向上した。
- 参考スコア(独自算出の注目度): 13.634866461329224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Dynamic Vision Sensors (DVSs) sparked a lot of interest due to
their inherent advantages over conventional RGB cameras. These advantages
include a low latency, a high dynamic range and a low energy consumption.
Nevertheless, the processing of DVS data using Deep Learning (DL) methods
remains a challenge, particularly since the availability of event training data
is still limited. This leads to a need for event data augmentation techniques
in order to improve accuracy as well as to avoid over-fitting on the training
data. Another challenge especially in real world automotive applications is
occlusion, meaning one object is hindering the view onto the object behind it.
In this paper, we present a novel event data augmentation approach, which
addresses this problem by introducing synthetic events for randomly moving
objects in a scene. We test our method on multiple DVS classification datasets,
resulting in an relative improvement of up to 6.5 % in top1-accuracy. Moreover,
we apply our augmentation technique on the real world Gen1 Automotive Event
Dataset for object detection, where we especially improve the detection of
pedestrians by up to 5 %.
- Abstract(参考訳): 最近、Dynamic Vision Sensors (DVS) は、従来のRGBカメラに固有の利点から、多くの関心を呼んだ。
これらの利点は、低レイテンシ、高ダイナミックレンジ、低エネルギー消費である。
それでも、特にイベントトレーニングデータの可用性は限られているため、ディープラーニング(dl)メソッドを用いたdvsデータの処理は依然として課題である。
これにより、正確性を改善し、トレーニングデータの過度な適合を避けるために、イベントデータ拡張技術の必要性が生じる。
現実世界の自動車応用におけるもうひとつの課題は、隠蔽(Occlusion)であり、あるオブジェクトがその背後にあるオブジェクトに対するビューを妨げていることを意味する。
本稿では,シーン内でランダムに移動するオブジェクトに合成イベントを導入することで,この問題に対処する新しいイベントデータ拡張手法を提案する。
提案手法を複数のDVS分類データセットで検証した結果,トップ1精度が6.5%まで向上した。
さらに,対象物検出のための実世界gen1自動車イベントデータセットに拡張技術を適用し,特に歩行者検出を最大5%向上させる。
関連論文リスト
- A Recurrent YOLOv8-based framework for Event-Based Object Detection [4.866548300593921]
本研究では、時間的モデリング機能を備えたフレームベース検出システムを強化する高度なオブジェクト検出フレームワークであるReYOLOv8を紹介する。
イベントデータを符号化する低レイテンシでメモリ効率の手法を実装し,システムの性能を向上する。
また、イベントデータのユニークな属性を利用するように調整された新しいデータ拡張手法を開発し、検出精度を向上した。
論文 参考訳(メタデータ) (2024-08-09T20:00:16Z) - DailyDVS-200: A Comprehensive Benchmark Dataset for Event-Based Action Recognition [51.96660522869841]
DailyDVS-200は、イベントベースのアクション認識コミュニティに適したベンチマークデータセットである。
実世界のシナリオで200のアクションカテゴリをカバーし、47人の参加者によって記録され、22,000以上のイベントシーケンスで構成されている。
DailyDVS-200には14の属性がアノテートされており、記録されたアクションの詳細なキャラクタリゼーションが保証されている。
論文 参考訳(メタデータ) (2024-07-06T15:25:10Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - SPADES: A Realistic Spacecraft Pose Estimation Dataset using Event
Sensing [9.583223655096077]
実際のターゲットデータセットへのアクセスが限られているため、アルゴリズムはしばしば合成データを使用して訓練され、実際のドメインに適用される。
イベントセンシングは過去にも行われており、シミュレーションと実世界のシナリオの間のドメインギャップを減らすことが示されている。
制御された実験室で取得した実イベントデータと、同じカメラ内在性を用いてイベントデータをシミュレートした新しいデータセットSPADESを提案する。
論文 参考訳(メタデータ) (2023-11-09T12:14:47Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Real3D-Aug: Point Cloud Augmentation by Placing Real Objects with
Occlusion Handling for 3D Detection and Segmentation [0.0]
本稿では,すでに注釈付けされているデータを複数回活用するデータ拡張手法を提案する。
本稿では,実データを再利用する拡張フレームワークを提案する。
このパイプラインは、3Dオブジェクトの検出とセマンティックセグメンテーションのためのトップパフォーマンスモデルのトレーニングにおいて、競争力があることを証明している。
論文 参考訳(メタデータ) (2022-06-15T16:25:30Z) - RADA: Robust Adversarial Data Augmentation for Camera Localization in
Challenging Weather [21.198320891744366]
ネットワークを混乱させることのできる最小限の画像摂動を学習するシステムであるRADを提案する。
本手法は, 未確認の気象条件において, SOTAの局部化モデルよりも最大2倍高い精度を達成できることを示す。
論文 参考訳(メタデータ) (2021-12-05T03:49:11Z) - DA4Event: towards bridging the Sim-to-Real Gap for Event Cameras using
Domain Adaptation [22.804074390795734]
イベントカメラは「イベント」の形でピクセルレベルの強度変化を捉えます
これらのセンサーの新規性は、その可能性を解き放つことができる大量のトレーニングデータの欠如をもたらす。
本稿では,フレームベースのイベント表現の特質を活かした新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-23T18:09:20Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - SCRDet++: Detecting Small, Cluttered and Rotated Objects via
Instance-Level Feature Denoising and Rotation Loss Smoothing [131.04304632759033]
小さくて散らばった物体は実世界では一般的であり、検出は困難である。
本稿では,まず,物体検出にデノナイズするアイデアを革新的に紹介する。
機能マップ上のインスタンスレベルの記述は、小さくて散らばったオブジェクトの検出を強化するために行われる。
論文 参考訳(メタデータ) (2020-04-28T06:03:54Z) - Quantifying Data Augmentation for LiDAR based 3D Object Detection [139.64869289514525]
そこで本研究では,光検出・ランドング(LiDAR)に基づく3次元物体検出において一般的に使用される,様々なデータ拡張手法について光を当てた。
本研究では,グローバルな拡張技術がシーン全体の点雲に適用され,ローカルな拡張技術がシーン内の個々のオブジェクトに属する点にのみ適用される,様々なグローバルおよびローカルな拡張技術について検討する。
以上の結果から,2種類のデータ拡張はパフォーマンス向上につながるが,個々のオブジェクト翻訳などの拡張技術は非生産的であり,全体的なパフォーマンスを損なう可能性があることがわかった。
論文 参考訳(メタデータ) (2020-04-03T16:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。