論文の概要: ShapeAug++: More Realistic Shape Augmentation for Event Data
- arxiv url: http://arxiv.org/abs/2409.11075v1
- Date: Tue, 17 Sep 2024 11:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 17:05:36.306068
- Title: ShapeAug++: More Realistic Shape Augmentation for Event Data
- Title(参考訳): ShapeAug++: イベントデータのためのより現実的な形状拡張
- Authors: Katharina Bendig, René Schuster, Didier Stricker,
- Abstract要約: ランダムに生成された多角形と曲面運動を含むShapeAugの拡張版を提案する。
複数のDVS分類データセットにおいて,提案手法の優位性を示し,トップ1の精度を最大3.7%向上させた。
- 参考スコア(独自算出の注目度): 14.216840803969324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The novel Dynamic Vision Sensors (DVSs) gained a great amount of attention recently as they are superior compared to RGB cameras in terms of latency, dynamic range and energy consumption. This is particularly of interest for autonomous applications since event cameras are able to alleviate motion blur and allow for night vision. One challenge in real-world autonomous settings is occlusion where foreground objects hinder the view on traffic participants in the background. The ShapeAug method addresses this problem by using simulated events resulting from objects moving on linear paths for event data augmentation. However, the shapes and movements lack complexity, making the simulation fail to resemble the behavior of objects in the real world. Therefore in this paper, we propose ShapeAug++, an extended version of ShapeAug which involves randomly generated polygons as well as curved movements. We show the superiority of our method on multiple DVS classification datasets, improving the top-1 accuracy by up to 3.7% compared to ShapeAug.
- Abstract(参考訳): 最新のダイナミックビジョンセンサー(DVS)は、レイテンシ、ダイナミックレンジ、エネルギー消費の点でRGBカメラよりも優れているため、近年大きな注目を集めている。
これは、イベントカメラが動きのぼやけを軽減し、夜間の視界を可能にするため、自律的なアプリケーションにとって特に関心がある。
現実の自律的な設定における課題の1つは、前景オブジェクトがバックグラウンドでの交通参加者の視界を妨げているオクルージョンである。
ShapeAugメソッドは、イベントデータ拡張のために線形パス上を移動するオブジェクトから生じるシミュレーションイベントを使用することで、この問題に対処する。
しかし、形状や動きは複雑さに欠けており、シミュレーションは現実世界の物体の挙動に似ていない。
そこで本稿では,ランダムに生成される多角形と曲面運動を含むShapeAugの拡張版であるShapeAug++を提案する。
複数のDVS分類データセットにおいて,本手法の優位性を示し,ShapeAugと比較してトップ1の精度を最大3.7%向上させた。
関連論文リスト
- MotionGS: Exploring Explicit Motion Guidance for Deformable 3D Gaussian Splatting [56.785233997533794]
我々はMotionGSと呼ばれる新しい変形可能な3次元ガウススプレイティングフレームワークを提案する。
MotionGSは3Dガウスの変形を導くために、前もって明示的な動きを探索する。
モノラルなダイナミックシーンの実験では、MotionGSが最先端の手法を超越していることが確認された。
論文 参考訳(メタデータ) (2024-10-10T08:19:47Z) - Cross-Modal Semi-Dense 6-DoF Tracking of an Event Camera in Challenging
Conditions [29.608665442108727]
イベントベースのカメラはバイオインスパイアされた視覚センサーであり、HDR条件でよく機能し、時間分解能が高い。
本研究は、代替センサのマッピングが許された場合、純粋にイベントベースのトラッキングの実現可能性を示す。
この手法は、半密度マップとイベントの幾何学的3D-2D登録に依存しており、信頼性が高く正確なクロスモーダル追跡結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T01:48:45Z) - ShapeAug: Occlusion Augmentation for Event Camera Data [13.634866461329224]
ダイナミックビジョンセンサ(DVS)のための新しいイベントデータ拡張手法を提案する。
シーン内でランダムに動く物体の合成イベントを紹介する。
提案手法を複数のDVS分類データセットで検証した結果,トップ1精度が最大6.5%向上した。
論文 参考訳(メタデータ) (2024-01-04T13:49:45Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Aligning Bird-Eye View Representation of Point Cloud Sequences using
Scene Flow [0.0]
低解像度の点雲は、その空間性のため、物体検出法では困難である。
本研究では,単一フレーム検出器がシーンフローを計算してBird-Eye View表現を修正できるプラグインモジュールを開発した。
論文 参考訳(メタデータ) (2023-05-04T15:16:21Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - GeoSim: Photorealistic Image Simulation with Geometry-Aware Composition [81.24107630746508]
GeoSimは、新しい都市の運転シーンを合成するジオメトリ認識の画像合成プロセスです。
まず、センサーデータからリアルな形状と外観の両方を備えた多様な3Dオブジェクトのバンクを構築します。
得られた合成画像は、フォトリアリズム、トラフィック認識、幾何学的一貫性があり、画像シミュレーションが複雑なユースケースにスケールできる。
論文 参考訳(メタデータ) (2021-01-16T23:00:33Z) - E3D: Event-Based 3D Shape Reconstruction [19.823758341937605]
3D形状の再構築は、拡張現実/仮想現実の主要なコンポーネントです。
RGB、RGB-Dおよびライダーのセンサーに基づく前の解決は力およびデータ集中的です。
我々は,イベントカメラ,低消費電力センサ,レイテンシ,データ費用の3次元再構成にアプローチした。
論文 参考訳(メタデータ) (2020-12-09T18:23:21Z) - SimAug: Learning Robust Representations from Simulation for Trajectory
Prediction [78.91518036949918]
本研究では,シミュレーション学習データの拡張により,ロバスト表現を学習する新しい手法を提案する。
我々は,SimAugが実世界の3つのベンチマークで有望な結果を得ることを示す。
論文 参考訳(メタデータ) (2020-04-04T21:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。