論文の概要: Towards Mobile Sensing with Event Cameras on High-mobility Resource-constrained Devices: A Survey
- arxiv url: http://arxiv.org/abs/2503.22943v1
- Date: Sat, 29 Mar 2025 02:28:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:50.102969
- Title: Towards Mobile Sensing with Event Cameras on High-mobility Resource-constrained Devices: A Survey
- Title(参考訳): 高機能リソース制約デバイスにおけるイベントカメラを用いたモバイルセンシング
- Authors: Haoyang Wang, Ruishan Guo, Pengtao Ma, Ciyu Ruan, Xinyu Luo, Wenhua Ding, Tianyang Zhong, Jingao Xu, Yunhao Liu, Xinlei Chen,
- Abstract要約: イベントベースのビジョンは破壊的なパラダイムとして現れ、高時間分解能、低レイテンシ、エネルギー効率を提供する。
本稿では,基本原理,イベント抽象化手法,アルゴリズムの進歩,ハードウェアおよびソフトウェアアクセラレーション戦略について,2014-2024年の文献を概説する。
本稿では,視覚計測,物体追跡,光フロー推定,3次元再構成など,モバイルセンシングにおけるイベントカメラの重要応用について論じる。
- 参考スコア(独自算出の注目度): 21.038748549750395
- License:
- Abstract: With the increasing complexity of mobile device applications, these devices are evolving toward high mobility. This shift imposes new demands on mobile sensing, particularly in terms of achieving high accuracy and low latency. Event-based vision has emerged as a disruptive paradigm, offering high temporal resolution, low latency, and energy efficiency, making it well-suited for high-accuracy and low-latency sensing tasks on high-mobility platforms. However, the presence of substantial noisy events, the lack of inherent semantic information, and the large data volume pose significant challenges for event-based data processing on resource-constrained mobile devices. This paper surveys the literature over the period 2014-2024, provides a comprehensive overview of event-based mobile sensing systems, covering fundamental principles, event abstraction methods, algorithmic advancements, hardware and software acceleration strategies. We also discuss key applications of event cameras in mobile sensing, including visual odometry, object tracking, optical flow estimation, and 3D reconstruction, while highlighting the challenges associated with event data processing, sensor fusion, and real-time deployment. Furthermore, we outline future research directions, such as improving event camera hardware with advanced optics, leveraging neuromorphic computing for efficient processing, and integrating bio-inspired algorithms to enhance perception. To support ongoing research, we provide an open-source \textit{Online Sheet} with curated resources and recent developments. We hope this survey serves as a valuable reference, facilitating the adoption of event-based vision across diverse applications.
- Abstract(参考訳): モバイルデバイスアプリケーションの複雑さが増すにつれ、これらのデバイスはハイモビリティに向かって進化している。
このシフトは、特に高い精度と低レイテンシの達成の観点から、モバイルセンシングに新たな要求を課している。
イベントベースのビジョンは、高時間分解能、低レイテンシ、エネルギー効率を提供する破壊的なパラダイムとして登場し、高モビリティプラットフォーム上での高精度で低レイテンシなセンシングタスクに適している。
しかし、相当なノイズのあるイベントの存在、固有の意味情報の欠如、そして膨大なデータ量は、リソースに制約のあるモバイルデバイス上でのイベントベースのデータ処理に重大な課題をもたらす。
本稿は,2014-2024年の文献を概観し,基本原理,イベント抽象化手法,アルゴリズムの進歩,ハードウェアおよびソフトウェアアクセラレーション戦略を概観する。
また,視覚計測,物体追跡,光フロー推定,3次元再構成など,モバイルセンシングにおけるイベントカメラのキーとなる応用についても論じ,イベントデータ処理やセンサ融合,リアルタイム展開に関わる課題を強調した。
さらに、先進光学によるイベントカメラハードウェアの改良、ニューロモルフィックコンピューティングによる効率的な処理、知覚向上のためのバイオインスパイアされたアルゴリズムの統合など、今後の研究の方向性について概説する。
現在進行中の研究を支援するために、キュレートされたリソースと最近の開発を含むオープンソースの \textit{Online Sheet} を提供する。
さまざまなアプリケーションにまたがるイベントベースのビジョンの採用を促進する上で、この調査が貴重な参考になることを期待しています。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - How Important are Data Augmentations to Close the Domain Gap for Object Detection in Orbit? [15.550663626482903]
宇宙空間におけるコンピュータビジョンの領域ギャップを埋めるためのデータ拡張の有効性について検討する。
本稿では,軌道画像に観察される視覚効果をエミュレートするために開発された2つの新しいデータ拡張法を提案する。
論文 参考訳(メタデータ) (2024-10-21T08:24:46Z) - E-Motion: Future Motion Simulation via Event Sequence Diffusion [86.80533612211502]
イベントベースのセンサーは、これまで達成できなかった詳細と精度で将来の動きを予測するユニークな機会を提供する可能性がある。
本稿では,映像拡散モデルの強力な学習能力とイベントカメラのリッチな動作情報とを,モーションシミュレーションフレームワークとして統合することを提案する。
本研究は,コンピュータビジョンシステムの解釈能力と予測精度の向上に向けた今後の研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2024-10-11T09:19:23Z) - Research, Applications and Prospects of Event-Based Pedestrian Detection: A Survey [10.494414329120909]
生物学的網膜にインスパイアされたイベントベースのカメラは、最小限の電力要求、無視できるレイテンシ、時間分解能、拡張可能なダイナミックレンジによって区別される最先端のセンサーへと進化してきた。
イベントベースのカメラは、高速撮像のシナリオにおいて、外部データ伝送を誘発し、動きのぼやけをなくすことによって制限に対処する。
本稿では,特に自律運転における研究と応用について概観する。
論文 参考訳(メタデータ) (2024-07-05T06:17:00Z) - Efficient Human Pose Estimation: Leveraging Advanced Techniques with MediaPipe [5.439359582541082]
本研究では,MediaPipeフレームワークを用いた人間のポーズ推定の大幅な向上について述べる。
この研究は精度、計算効率、リアルタイム処理能力の改善に焦点を当てている。
この進歩は、拡張現実、スポーツ分析、ヘルスケアに幅広く応用されている。
論文 参考訳(メタデータ) (2024-06-21T21:00:45Z) - Learning Generalizable Human Motion Generator with Reinforcement Learning [95.62084727984808]
テキスト駆動型ヒューマンモーション生成は、コンピュータ支援コンテンツ作成において重要なタスクの1つである。
既存の方法は訓練データ中の特定の動作表現に過度に適合することが多く、一般化する能力を妨げている。
一般化可能なヒューマンモーション生成のための強化学習において,パスとエラーのパラダイムを取り入れた textbfInstructMotion を提案する。
論文 参考訳(メタデータ) (2024-05-24T13:29:12Z) - MyDigitalFootprint: an extensive context dataset for pervasive computing
applications at the edge [7.310043452300736]
MyDigitalFootprintは、スマートフォンセンサーデータ、物理的な近接情報、オンラインソーシャルネットワークのインタラクションを含む大規模なデータセットである。
自然環境における31人のボランティアユーザーによる2ヶ月の計測で、制限なしの行動を可能にする。
データセットの有効性を示すために,各種機械学習タスクを利用したコンテキスト認識3つのアプリケーションを提案する。
論文 参考訳(メタデータ) (2023-06-28T07:59:47Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。