論文の概要: Event Camera Meets Resource-Aware Mobile Computing: Abstraction, Algorithm, Acceleration, Application
- arxiv url: http://arxiv.org/abs/2503.22943v3
- Date: Wed, 10 Sep 2025 06:59:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.047733
- Title: Event Camera Meets Resource-Aware Mobile Computing: Abstraction, Algorithm, Acceleration, Application
- Title(参考訳): Event Camera - リソースを意識したモバイルコンピューティング - 抽象化,アルゴリズム,アクセラレーション,アプリケーション
- Authors: Haoyang Wang, Ruishan Guo, Pengtao Ma, Ciyu Ruan, Xinyu Luo, Wenhua Ding, Tianyang Zhong, Jingao Xu, Yunhao Liu, Xinlei Chen,
- Abstract要約: イベントベースのビジョンは、高能率プラットフォーム上での高精度で低レイテンシなセンシングタスクに適しています。
ノイズの多いイベントの存在、安定的で永続的なセマンティックな情報の欠如、巨大なデータボリュームは、リソースに制約のあるモバイルデバイス上でのイベントベースのデータ処理に課題をもたらす。
本稿では,2014年から2025年までの文献を調査し,イベントベースモバイルセンシングの概要を概観する。
- 参考スコア(独自算出の注目度): 23.892253688061164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing complexity of mobile device applications, these devices are evolving toward high agility. This shift imposes new demands on mobile sensing, particularly in achieving high-accuracy and low-latency. Event-based vision has emerged as a disruptive paradigm, offering high temporal resolution and low latency, making it well-suited for high-accuracy and low-latency sensing tasks on high-agility platforms. However, the presence of substantial noisy events, lack of stable, persistent semantic information, and large data volume pose challenges for event-based data processing on resource-constrained mobile devices. This paper surveys the literature from 2014 to 2025 and presents a comprehensive overview of event-based mobile sensing, encompassing its fundamental principles, event \textit{abstraction} methods, \textit{algorithm} advancements, and both hardware and software \textit{acceleration} strategies. We discuss key \textit{applications} of event cameras in mobile sensing, including visual odometry, object tracking, optical flow, and 3D reconstruction, while highlighting challenges associated with event data processing, sensor fusion, and real-time deployment. Furthermore, we outline future research directions, such as improving the event camera with advanced optics, leveraging neuromorphic computing for efficient processing, and integrating bio-inspired algorithms. To support ongoing research, we provide an open-source \textit{Online Sheet} with recent developments. We hope this survey serves as a reference, facilitating the adoption of event-based vision across diverse applications.
- Abstract(参考訳): モバイルデバイスアプリケーションの複雑さが増すにつれ、これらのデバイスは高いアジリティに向かって進化している。
このシフトは、特に高精度で低レイテンシを実現する上で、モバイルセンシングに新たな要求を課している。
イベントベースのビジョンは、高テンポラリな解像度と低レイテンシを提供する破壊的なパラダイムとして登場し、高パフォーマンスプラットフォーム上での高精度で低レイテンシなセンシングタスクに適している。
しかし、かなりノイズの多いイベントの存在、安定的で永続的なセマンティックな情報の欠如、そして膨大なデータ量は、リソースに制約のあるモバイルデバイス上でのイベントベースのデータ処理に困難をもたらす。
本稿では,2014年から2025年までの文献を概観し,その基本原理,イベント \textit{abstraction} 手法,<textit{algorithm} の進歩,およびハードウェアおよびソフトウェア \textit{acceleration} 戦略を包括的に概観する。
モバイルセンシングにおけるイベントカメラのキー \textit{applications} について論じるとともに,イベントデータ処理,センサ融合,リアルタイム展開に関わる課題を強調した。
さらに、先進光学によるイベントカメラの改良、効率的な処理にニューロモルフィックコンピューティングを活用すること、バイオインスパイアされたアルゴリズムの統合など、今後の研究の方向性について概説する。
現在進行中の研究を支援するため,最近の研究成果をまとめたオープンソース \textit{Online Sheet} を提供する。
この調査が参照として役立ち、さまざまなアプリケーションにまたがるイベントベースのビジョンの採用を促進することを願っています。
関連論文リスト
- Small Object Detection: A Comprehensive Survey on Challenges, Techniques and Real-World Applications [0.15705429611931052]
小型物体検出(SOD)はコンピュータビジョンにおいて重要な課題である。
ディープラーニングの最近の進歩は革新的なソリューションを導入している。
軽量ニューラルネットワーク、知識蒸留(KD)、自己教師型学習といった新興トレンドは、検出効率を改善する上で有望な方向を提供する。
論文 参考訳(メタデータ) (2025-03-26T12:58:13Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - How Important are Data Augmentations to Close the Domain Gap for Object Detection in Orbit? [15.550663626482903]
宇宙空間におけるコンピュータビジョンの領域ギャップを埋めるためのデータ拡張の有効性について検討する。
本稿では,軌道画像に観察される視覚効果をエミュレートするために開発された2つの新しいデータ拡張法を提案する。
論文 参考訳(メタデータ) (2024-10-21T08:24:46Z) - E-Motion: Future Motion Simulation via Event Sequence Diffusion [86.80533612211502]
イベントベースのセンサーは、これまで達成できなかった詳細と精度で将来の動きを予測するユニークな機会を提供する可能性がある。
本稿では,映像拡散モデルの強力な学習能力とイベントカメラのリッチな動作情報とを,モーションシミュレーションフレームワークとして統合することを提案する。
本研究は,コンピュータビジョンシステムの解釈能力と予測精度の向上に向けた今後の研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2024-10-11T09:19:23Z) - Research, Applications and Prospects of Event-Based Pedestrian Detection: A Survey [10.494414329120909]
生物学的網膜にインスパイアされたイベントベースのカメラは、最小限の電力要求、無視できるレイテンシ、時間分解能、拡張可能なダイナミックレンジによって区別される最先端のセンサーへと進化してきた。
イベントベースのカメラは、高速撮像のシナリオにおいて、外部データ伝送を誘発し、動きのぼやけをなくすことによって制限に対処する。
本稿では,特に自律運転における研究と応用について概観する。
論文 参考訳(メタデータ) (2024-07-05T06:17:00Z) - Efficient Human Pose Estimation: Leveraging Advanced Techniques with MediaPipe [5.439359582541082]
本研究では,MediaPipeフレームワークを用いた人間のポーズ推定の大幅な向上について述べる。
この研究は精度、計算効率、リアルタイム処理能力の改善に焦点を当てている。
この進歩は、拡張現実、スポーツ分析、ヘルスケアに幅広く応用されている。
論文 参考訳(メタデータ) (2024-06-21T21:00:45Z) - MyDigitalFootprint: an extensive context dataset for pervasive computing
applications at the edge [7.310043452300736]
MyDigitalFootprintは、スマートフォンセンサーデータ、物理的な近接情報、オンラインソーシャルネットワークのインタラクションを含む大規模なデータセットである。
自然環境における31人のボランティアユーザーによる2ヶ月の計測で、制限なしの行動を可能にする。
データセットの有効性を示すために,各種機械学習タスクを利用したコンテキスト認識3つのアプリケーションを提案する。
論文 参考訳(メタデータ) (2023-06-28T07:59:47Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Efficient High-Resolution Deep Learning: A Survey [90.76576712433595]
スマートフォン、衛星、医療機器などの現代の機器のカメラは、非常に高解像度の画像やビデオを撮影することができる。
このような高解像度データは、がん検出、自動道路ナビゲーション、天気予報、監視、農業プロセスの最適化、その他多くの応用のためのディープラーニングモデルによって処理される。
ディープラーニングモデルの直接入力として高解像度の画像とビデオを使用することで、パラメータの多さ、計算コスト、推論レイテンシ、GPUメモリ使用量など、多くの課題が生じる。
文献におけるいくつかの研究は、高解像度データの課題に対処し、ハードウェアの制限に従いながら精度とスピードを改善するために、より良い代替案を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:13:53Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Energy Drain of the Object Detection Processing Pipeline for Mobile
Devices: Analysis and Implications [77.00418462388525]
本稿では、移動体拡張現実(AR)クライアントのエネルギー消費と、畳み込みニューラルネットワーク(CNN)に基づく物体検出を行う際の検出遅延について、初めて詳細な実験を行った。
我々は,移動体ARクライアントのエネルギー分析を精査し,CNNによる物体検出を行う際のエネルギー消費に関するいくつかの興味深い視点を明らかにした。
論文 参考訳(メタデータ) (2020-11-26T00:32:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。