論文の概要: Efficient Event Camera Volume System
- arxiv url: http://arxiv.org/abs/2603.14738v1
- Date: Mon, 16 Mar 2026 02:22:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.999276
- Title: Efficient Event Camera Volume System
- Title(参考訳): 効率的なイベントカメラボリュームシステム
- Authors: Juan Camilo Soto, Ian Noronha, Saru Bharti, Upinder Kaur,
- Abstract要約: イベントカメラは低レイテンシと高ダイナミックレンジを約束するが、スパースアウトプットは標準的なロボットパイプラインとの統合に挑戦する。
イベントストリームを連続時間Diracインパルストレインとしてモデル化する新しいフレームワークであるnameframewを紹介した。
nameframewは、リアルタイムイベント密度分析に基づいて、圧縮戦略を自動的に適用しながら、時間的バイナリアーティファクトを削除する。
- 参考スコア(独自算出の注目度): 0.3919854840656459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras promise low latency and high dynamic range, yet their sparse output challenges integration into standard robotic pipelines. We introduce \nameframew (Efficient Event Camera Volume System), a novel framework that models event streams as continuous-time Dirac impulse trains, enabling artifact-free compression through direct transform evaluation at event timestamps. Our key innovation combines density-driven adaptive selection among DCT, DTFT, and DWT transforms with transform-specific coefficient pruning strategies tailored to each domain's sparsity characteristics. The framework eliminates temporal binning artifacts while automatically adapting compression strategies based on real-time event density analysis. On EHPT-XC and MVSEC datasets, our framework achieves superior reconstruction fidelity with DTFT delivering the lowest earth mover distance. In downstream segmentation tasks, EECVS demonstrates robust generalization. Notably, our approach demonstrates exceptional cross-dataset generalization: when evaluated with EventSAM segmentation, EECVS achieves mean IoU 0.87 on MVSEC versus 0.44 for voxel grids at 24 channels, while remaining competitive on EHPT-XC. Our ROS2 implementation provides real-time deployment with DCT processing achieving 1.5 ms latency and 2.7X higher throughput than alternative transforms, establishing the first adaptive event compression framework that maintains both computational efficiency and superior generalization across diverse robotic scenarios.
- Abstract(参考訳): イベントカメラは低レイテンシと高ダイナミックレンジを約束するが、スパースアウトプットは標準的なロボットパイプラインとの統合に挑戦する。
イベントストリームを連続時間ディラックインパルストレインとしてモデル化し,イベントタイムスタンプでの直接変換評価によるアーティファクトフリー圧縮を可能にする,新しいフレームワークである \nameframew (Efficient Event Camera Volume System) を紹介する。
我々の鍵となる革新は、DCT、DTFT、DWT変換間の密度駆動適応選択と、各領域の空間特性に合わせた変換特異的な係数決定戦略を組み合わせることである。
このフレームワークは、リアルタイムイベント密度分析に基づいて、圧縮戦略を自動的に適用しながら、時間的結合アーティファクトを除去する。
EHPT-XC と MVSEC のデータセットでは, DTFT が低地移動距離を実現することにより, 復元精度が向上する。
下流のセグメンテーションタスクでは、EECVSは堅牢な一般化を示す。
イベントSAMセグメンテーションを用いて評価すると、EECVSはMVSECでは平均IoU 0.87、24チャンネルでは0.44となるが、EHPT-XCでは競争力を維持している。
我々のROS2実装は、DCT処理によるリアルタイムデプロイメントを実現し、1.5msのレイテンシと2.7倍のスループットを実現し、計算効率と多様なロボットシナリオ間の高度な一般化を両立する最初の適応イベント圧縮フレームワークを構築しました。
関連論文リスト
- AdaFuse: Accelerating Dynamic Adapter Inference via Token-Level Pre-Gating and Fused Kernel Optimization [84.25316984309725]
動的スパース構造とパラメータ効率のよいアダプタ(例えばLoRA)の統合は、大規模言語モデル(LLM)を拡張するための強力な技術である。
計算負荷は最小限に抑えられるが、計算のレイテンシが急上昇し、復号速度が2.5倍以上遅くなる。
AdaFuseはアルゴリズムと基盤となるハードウェアシステムとの緊密な協調設計に基づいて構築されたフレームワークで、効率的な動的アダプタ実行を実現する。
論文 参考訳(メタデータ) (2026-03-12T12:46:42Z) - Time2Vec Transformer for Robust Gesture Recognition from Low-Density sEMG [1.231764991565978]
本稿では筋電義手制御のための新しい,データ効率の高いディープラーニングフレームワークを提案する。
提案手法は, スパース2チャネル表面筋電図(sEMG)に最適化されたハイブリッドトランスフォーマーの実装である。
提案するフレームワークは, 迅速なパーソナライズが可能な次世代人工装具の堅牢で費用対効果の高い青写真を提供する。
論文 参考訳(メタデータ) (2026-02-02T09:28:27Z) - Towards Robust and Generalizable Continuous Space-Time Video Super-Resolution with Events [71.2439653098351]
連続時空ビデオスーパーSTVSRは、高解像度で高フレームのビデオを任意の時間スケールで再構成する能力への関心が高まっている。
EvEnhancerは、イベントストリームにカプセル化された高時間および高ダイナミックレンジのユニークな特性を結合する新しいアプローチである。
提案手法は,OODスケールでの一般化性を維持しつつ,合成および実世界の両方のデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-10-04T15:23:07Z) - Bidirectional Feature-aligned Motion Transformation for Efficient Dynamic Point Cloud Compression [97.66080040613726]
特徴空間における動きを暗黙的にモデル化する双方向特徴整合運動変換(Bi-FMT)フレームワークを提案する。
Bi-FMTは、時間的に一貫した潜在表現を生成するために、過去と将来の両方のフレームで機能を調整する。
圧縮効率とランタイムの両方において, Bi-FMT が D-DPCC と AdaDPCC を上回っていることを示す。
論文 参考訳(メタデータ) (2025-09-18T03:51:06Z) - FlexEvent: Towards Flexible Event-Frame Object Detection at Varying Operational Frequencies [59.10607296658509]
イベントカメラは、動的環境におけるリアルタイムの知覚に相容れないアドバンテージを提供する。
イベント検出器は固定周波数のパラダイムによって制限されており、イベントデータの高時間分解能と適応性を完全に活用できない。
我々は、様々な周波数で検出できる新しいフレームワークFlexEventを提案する。
論文 参考訳(メタデータ) (2024-12-09T17:57:14Z) - Dynamic Diffusion Transformer [67.13876021157887]
Diffusion Transformer (DiT) は優れた性能を示したが、かなりの計算コストに悩まされている。
本研究では,動的拡散変換器 (DyDiT) を提案する。
3%の微調整により,DiT-XLのFLOPを51%削減し,生成を1.73高速化し,ImageNet上でのFIDスコア2.07を達成する。
論文 参考訳(メタデータ) (2024-10-04T14:14:28Z) - Robust Fully-Asynchronous Methods for Distributed Training over General Architecture [11.480605289411807]
分散機械学習問題における完全な同期は、レイテンシ、パッケージの損失、ストラグラーの存在のため、非効率であり、不可能である。
本稿では,R-FAST (Fully-Asynchronous Gradient Tracking Method) を提案する。
論文 参考訳(メタデータ) (2023-07-21T14:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。